WO2011087333A2 - Method and apparatus for processing an audio signal - Google Patents

Method and apparatus for processing an audio signal Download PDF

Info

Publication number
WO2011087333A2
WO2011087333A2 PCT/KR2011/000327 KR2011000327W WO2011087333A2 WO 2011087333 A2 WO2011087333 A2 WO 2011087333A2 KR 2011000327 W KR2011000327 W KR 2011000327W WO 2011087333 A2 WO2011087333 A2 WO 2011087333A2
Authority
WO
WIPO (PCT)
Prior art keywords
vector
codebook
code
code vector
subvector
Prior art date
Application number
PCT/KR2011/000327
Other languages
French (fr)
Korean (ko)
Other versions
WO2011087333A3 (en
Inventor
정규혁
김대환
강인규
김락용
홍기봉
박지강
이인성
임종하
문상현
이병석
전혜정
Original Assignee
엘지전자 주식회사
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 충북대학교 산학협력단 filed Critical 엘지전자 주식회사
Publication of WO2011087333A2 publication Critical patent/WO2011087333A2/en
Publication of WO2011087333A3 publication Critical patent/WO2011087333A3/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • G10L19/038Vector quantisation, e.g. TwinVQ audio
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations

Definitions

  • the present invention relates to an audio signal processing method and apparatus capable of encoding or decoding an audio signal.
  • linear predictive coding In general, linear predictive coding (LPC) is performed on an audio signal, particularly when the audio signal has a strong characteristic.
  • the linear-predictive coefficients generated by the linear predictive coding are sent to a decoder, which reconstructs the audio signal through linear predictive synthesis on the coefficients.
  • Vector-quantization is performed to transmit the linear-prediction coefficient or the linear-prediction transform coefficient to the decoder, and since there is a quantization error, sound quality is distorted.
  • the present invention has been made to solve the above problems, and provides an audio signal processing method and apparatus for adaptively configuring a codebook for each subvector in vector-quantizing linear-prediction transform coefficients. Another object of the present invention is to use an order property of the linear-predictive transform coefficients to remove the redundancy of the codebook and to add a code vector similar to the target vector to the codebook. A method and apparatus are provided.
  • the present invention provides the following effects and advantages.
  • a code vector similar to a target vector (target subvector) is added to the codebook, but since unnecessary code vectors are excluded from the codebook, the total codebook size remains the same or almost similar, without increasing the number of bits. Quantization error can be minimized.
  • the quantization error can be minimized without requiring extra bits.
  • FIG. 1 is a block diagram of an encoder in an audio signal processing apparatus according to a first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining the concept of a linear-prediction transform coefficient, a target vector, and a sub vector.
  • 3 is a diagram illustrating a concept of a codebook for each subvector according to the present invention
  • FIG. 5 is a block diagram of a decoder in an audio signal processing apparatus according to a first embodiment of the present invention.
  • FIG. 6 is a block diagram of an encoder in an audio signal processing apparatus according to a second embodiment of the present invention.
  • 8 is a first example of an array, reference subvector, non-reference subvector.
  • FIG. 9 shows a second example of an array, reference subvector, and non-reference subvector.
  • FIG. 10 shows a third example of an array, reference subvector, non-reference subvector.
  • 11 shows a fourth example of an array, reference subvector, non-reference subvector.
  • FIG. 12 shows a fifth example of an array, reference subvector, non-reference subvector.
  • FIG. 13 is a block diagram of a decoder in an audio signal processing apparatus according to a second embodiment of the present invention.
  • 14 is an example of a normalized codebook, and one or more L of a red-eye codebook.
  • FIG. 15 is a schematic structural diagram of a product implemented with an audio signal processing apparatus according to an embodiment of the present invention.
  • FIG. 16 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented. [Best Mode]
  • an audio signal processing method comprises: generating a target vector for a plurality of linear-predictive transform coefficients by performing a linear-prediction analysis on an audio signal of a current frame. ; Generating the target vector with a plurality of subvectors including a first subvector and a second subvector; Obtaining a first code vector by vector quantizing the first subvector; Using the last component of the first code vector, removing one or more redundant code vectors from an initial codebook for the second sub vector; Generating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; And, using the update codebook, vector quantizing the second subvector to obtain a second code vector, wherein the additional code vector is predicted based on a last component of the first code vector.
  • the number of redundant code vectors may be the same as the number of additional code vectors.
  • the generating of the update codebook includes: obtaining an initial component prediction value by using a last component of the first code vector; Selecting two or more candidate code vectors from the initial codebook using the original component prediction value; Temporary code by interpolating the candidate code vectors Creating a vector; Selecting code vectors that satisfy the temporary code vector increment ordering property as the additional code vector; And generating the update codebook by adding the additional code vector to the initial codebook.
  • the initial component prediction value is obtained by adding a gradient mean to the last component of the first code vector, and the increment average is a difference between the current component and the previous component of the first code vector. It may be based on.
  • the two or more candidate code vectors may be selected based on a difference between an initial component of code vectors included in a codebook for the second sub vector and the first component prediction value.
  • the update codebook in the ascending sorting, may be assigned a first index to a code vector located after the redundant code vector in the initial codebook.
  • a linear predictor for generating a target vector for a plurality of linear-predictive transform coefficients;
  • a vector divider configured to generate the target vector from a plurality of subvectors including a first subvector and a second subvector;
  • a first code vector obtained by vector quantizing the first sub vector Quantization unit;
  • Using the last component of the first code vector one or more redundant code vectors are removed from the initial codebook for the second subvector, and the last component of the first code vector is used to remove one or more redundant code vectors from the initial codebook.
  • a codebook updater for generating an update codebook by adding an additional code vector; And a first quantizer for obtaining a second code vector by vector quantizing the second subvector using the update codebook, wherein the additional code vector is predicted based on the last component of the first code vector.
  • a method comprising : receiving a first codebook index of a first code vector : and a second codebook index of a second code vector; Obtaining a last component of the first code vector using a first codebook index; Using the last component of the first code vector, removing one or more redundant code vectors from an initial codebook for a second subvector; Generating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; Obtaining a second subvector using the update codebook and the second codebook index, wherein the additional code vector is predicted using the last component of the first code vector.
  • a method of generating a plurality of linear-predictive transform coefficients by performing a linear-prediction analysis on an audio signal of a current frame Generating a reference sub-vectors the 'plurality of linearly-arranged by the predictive transform coefficients, the one or more reference sub-vectors, and at least one ratio; Obtaining a reference code vector by performing vector quantization on the one or more reference subvectors; Estimating the minimum and maximum values of the non-referenced subvectors using two components of each component of the reference code vectors; Generating a red-eye codebook for the non-referenced subvector using the minimum and the maximum values; And acquiring a non-reference code vector by performing vector quantization on the non-reference subvector using the decoded codebook.
  • the step of generating the red-eye codebook Obtaining normalized code vectors; And generating the red-eye codebook by applying the minimum value and the maximum value to the normalized codevectors.
  • the reference code vector includes a first reference code vector, and two components of the reference code vectors may be the last component and the last previous component of the first reference code vector.
  • the reference code vector includes a first reference code vector and a second reference code vector, wherein two components of the reference code vectors are the last component of the first reference code vector and the second reference. It may be the first component of the code vector.
  • the minimum value and the maximum value may be estimated based on the ordering property of the linear-prediction transform coefficients.
  • the arrangement of the plurality of linear-prediction transform coefficients is [Wl, W2, W3, W8, W13, W14, W15, W16, W4, W5, W6, W7, W9, WIO, Wl, W12], [Wl, W2, W3, W8, W4, W5, W6, W7], [Wl, W2, W6, W3, W4, W5, W7, W8, W9], [WL W2, W6, W3, W4 , W5, WIO, Wl, W12, W7, W8, W9], and [Wl, W2, W6, W3, W4, W5, W7, W8, W12, W9, W10, Wl, W13, W14, W15] (W X is one of the X-th linear-predictive transform coefficients), and the reference subvector includes ⁇ Wl W2 W3 W8 ⁇ , ⁇ W13 W14 W15 W16 ⁇ , ⁇ Wl W2 W6 ⁇ , ⁇ WIO Wl W1 ⁇ , and ⁇ W7 W8
  • a linear prediction analyzer for generating a plurality of linear-predictive transform coefficients; By arranging the plurality of linear-predictive transform coefficients, one An array for generating the at least one reference subvector and at least one non-reference subvector; An independent quantizer that obtains a reference code vector by performing vector quantization on the one or more reference subvectors; An adaptive codebook generation unit for estimating a minimum value and a maximum value of the non-reference subvector using two components of each of the reference code vectors, and generating the degenerate codebook using the minimum value and the maximum value; And a dependent quantizer for acquiring a non-reference code vector by performing vector quantization on the non-reference subvector using the adaptive codebook.
  • a method comprising: receiving a reference codebook index of one or more reference code vectors, and a non-reference codebook index of one or more non-reference code vectors; Acquiring one or more reference code vectors using the one or more reference codebook indexes; Estimating a minimum and maximum value of a non-reference subvector using two components of each component of the reference code vectors; Generating a red-eye codebook for the non-referenced subvector using the minimum and the maximum values; And acquiring the non-reference subvector using the decod codebook and the non-reference codebook index.
  • Coding can be interpreted as encoding or decoding in some cases, and information is a term that encompasses values, parameters, coefficients, elements, and so on. It may be interpreted otherwise, but the present invention is not limited thereto.
  • the audio signal is broadly defined as a concept that is distinguished from a video signal, and refers to a signal that can be identified by hearing during reproduction.
  • an audio signal is a concept that is distinguished from a speech signal. Signal with little or no characteristics it means.
  • the audio signal in the present invention should be interpreted broadly and can be understood as a narrow audio signal when used separately from a voice signal. Coding may also refer to encoding only, but may be used as a concept including both encoding and decoding.
  • FIG. 1 is a block diagram of an audio signal processing device enhancement encoder according to a first embodiment of the present invention.
  • 2 to 4 are diagrams for explaining the configuration of the encoder of FIG.
  • the encoder 100 may include a vector divider 120, a first quantizer 130-1, a second quantizer 130-2, and a codebook updater 140. And a linear prediction analyzer 110, and an N-th quantizer 130 -N.
  • the linear prediction analyzer 1 10 generates linear-prediction coefficients by performing linear prediction analysis on the input audio signal according to linear prediction coding (LPC).
  • LPC linear prediction coding
  • the basic idea of the model of linear predictive coding is that it can be approximated by a linear combination of p speech signals past at a given point in time n .
  • the linear prediction analyzer 110 converts the linear-prediction coefficient into a linear-prediction transform coefficient Wi.
  • the linear-predictive transform coefficient may be one of Line Spectral Pairs (LSP), Implementance Spectral Pairs (ISP), or Line Spectrum Frequency (LSF) or Immunity Spectral Frequency (ISF), but the present invention is not limited thereto.
  • ISF can be expressed as
  • is the linear-prediction coefficient
  • fi is the frequency range of [0,6400Hz] of the ISF
  • f s 12800 is the sampling frequency.
  • FIG. 2 is a diagram for describing the concept of a linear-prediction transform coefficient, a target vector, and a sub vector.
  • a total of 16 linear-prediction transform coefficients Wi i: 1 to 16 are arranged in order.
  • the linear-prediction transform coefficients may be a total of 16 (ie, order 16) as shown in FIG. 2, but the present invention is not limited thereto.
  • the linear-predictive transform coefficients When the linear-predictive transform coefficients are arranged in order, this may be referred to as a target vector of 16 dimensions.
  • These linear-predictive transform coefficients have ordering properties, as shown in Fig. 2B and the following equation.
  • Wi is the i-th linear-predictive transform coefficient
  • is the order
  • ⁇ ⁇ is the gain value of the ISF coefficient
  • the vector divider 120 generates two or more subvectors by dividing the target vector.
  • the subvector may include a first subvector and a second subvector, and may include up to an Nth subvector. As shown in FIG. 2 : the first subvector is from W 4 , the second subvector is from W 5 to W 8 , the third subvector is from W 9 to W 12 , and the fourth subvector is from W 13 to W 16 .
  • the present invention is not limited thereto.
  • the first subvector generated by the vector divider 120 is transferred to the first quantizer 130-1, the second subvector is the second quantizer 130-2, and the Nth subvector is the Nth quantization. Delivered to portion 130-N.
  • the first quantization unit 130-1 obtains the first code vector by vector-quantizing the first sub vector.
  • a codebook for the first sub vector may be used.
  • FIG. 3 is a diagram for explaining the concept of a codebook for each subvector according to the present invention.
  • a codebook for each subvector (codebook of a first subvector and a codebook of a fourth subvector) exists for each of the first subvector to the fourth subvector, and the quantization of the first subvector is performed.
  • An initial codebook is used, and an update codebook is used for quantization of the second subvector.
  • the initial codebook means a codebook that has not been updated, and the update codebook means a codebook in which some code vectors are added except for some code vectors using an ordering property.
  • the codebook updating unit 140 Is performed by.
  • the first quantization unit 130-1 generates a first code vector quantized vector by an initial codebook for the first sub vector.
  • the initial codebook training It may be a codebook made through the LBG algorithm using the statistical characteristics of the vector, but the present invention is not limited thereto.
  • a first codevector is the first component, as shown in the lower part of FIG. 4 (W,) to the end component (W 4), there may be present, the last component of the first code vector (W 4) is in the codebook updating unit 140 Delivered.
  • Figure 4 is only one example, the last component of the first code vector may be not only the fourth component (w 4 ), but also the eighth component ( 8 ), may be the twelfth component (w 12 ) Bar, the present invention is not limited thereto.
  • the codebook updater 140 removes one or more surplus code vectors from the codebook for the second subvector, using the last component W 4 of the first codevector.
  • the codebook may be a codebook generated through the LBG algorithm like the codebook for the first subvector.
  • FIG. 4 is a diagram for explaining a codebook update concept according to the present invention.
  • a codebook for a second subvector on the right side which, as described above, has a fifth linear-predictive transform coefficient (W 5 ) to an eighth linear-predictive transform coefficient ( W 8 ) up to and including vectors.
  • W 5 linear-predictive transform coefficient
  • W 8 linear-predictive transform coefficient
  • the fifth linear-predictive transform coefficient must be larger than the fourth linear-predictive transform coefficient (W 4 ). Since this ordering property is the same as the quantized result, the first component (w 5) of the codebook of the second subvector corresponding to the fifth linear-predictive transform coefficient is the last component (W 4 ) of the codebook of the first subvector. It must be greater than).
  • Code vectors that do not meet this ordering quality may correspond to redundant code vectors.
  • Such surplus code vectors are excluded from the codebook of the first subvector.
  • the codebook updater 140 then adds one or more additional codevectors to the codebook for the first subvector, using the last component of the first codevector.
  • the additional code vector here is a code vector whose quantization error is not greater than other code vectors. The process of acquiring an additional code vector is as follows.
  • An initial component prediction value is obtained using the last component of the first code vector.
  • Wi pred is the first component predicted value
  • is the last component of the first code vector
  • is a gradient mean where Wi pred and the liver have a Gaussian distribution.
  • the increase average may be calculated by the following equation, but the present invention is not limited thereto.
  • the codebook updater 140 selects two or more candidate codevectors from a codebook for a second subvector using the first component prediction value Wi pred . That is, among the code vectors included in the codebook, the code vectors having the smallest difference between the initial component of the stone and the first component prediction value Wi pred may be the candidate code vectors.
  • the codebook updater 140 generates a temporary code vector by interpolating the candidate code vectors.
  • interpolation method various methods known in the art may be applied. For example, when there are two candidate vectors, interpolation may be performed by the method shown in the following equation.
  • CB m EXT is an additional code vector (k ⁇ m ⁇ k + M + l), CB k and CB k + M + 1 are candidate code vectors,
  • m is the codebook index newly assigned to the update codebook
  • M is the total number of additional code vectors
  • a m and b m are weights
  • the size of the conventional initial codebook and the size of the update codebook may be kept equal to L. Therefore, no additional bit is required to transmit the codebook index.
  • additional code vectors which are more similar to the target code vector to be subjected to vector quantization, to the codebook, there is an effect of minimizing the quantization error and improving the sound quality.
  • the codebook updater 140 adds an update codebook to which the additional code vectors are added to the second quantizer 130-2, except for the surplus code vectors from the initial codebook. to provide.
  • the second quantization unit 130-2 obtains the second code vector by vector quantizing the second sub vector using the update codebook for the second sub vector.
  • the last component of this second code vector is transmitted to the codebook updating unit 140 as in the first quantization unit 130-1, and the codebook updating unit is based on the last component of the second code vector, and the Nth code vector is used.
  • the codebook for the subvector is updated and transmitted to the N-th quantizer 130-N.
  • the N-th quantizer 130-N quantizes the N-th subvector using the update codebook provided by the codebook updater 140 to obtain an N-th code vector.
  • the first codebook index corresponding to the first code vector generated by the first quantization unit 130-1 to the Nth quantization unit 130 -N, and the N th codebook index corresponding to the N th code vector are multiplexers ( Multiplexed by 150) and included in the bitstream, which is transmitted to the decoder.
  • the candidate values of the first codebook index for the first code vector, and the candidate values of the Nth codebook index for the second code vector are assigned to the first stage quantization unit.
  • it may be an input of a two-step quantization unit 160 (not shown).
  • the second stage quantization unit 160 may perform multi-stage vector quantization (MSVQ) based on the candidate values. That is, the vector of the first stage (stage) and the vector of the second stage are summed to select indices with small distortion, respectively.
  • MSVQ multi-stage vector quantization
  • the second quantization unit 160 (not shown) divides the sub vector again, for example, ⁇ WiWsWsW Ws ⁇ , ⁇ W 6 W 7 W 8 W 9 W 10 ⁇ , ⁇ WHW JWUWMWBW ⁇ , And ⁇ W ⁇ OWHWUWUWMW W ⁇ may be performed to perform the second step quantization, but the present invention is not limited thereto.
  • the prediction selector 170 may further include a prediction selector 170 (not shown) to calculate a correlation between frames with respect to the linear-prediction transform coefficient. In the case of an audio signal, since it is generally stationary in a short section, the correlation between frames is high. In this case, an auto-regressive prediction technique may be used to use the inter-frame correlation, but the present invention is not limited thereto.
  • the prediction selector 150 designs a quantizer so that all the cases with and without the prediction range can be quantized. Both quantization techniques are used at the same time and quantizers with small MSE distortion are selected.
  • P 16 linear-predictive transform coefficients, and and represent original linear-predictive transform coefficients and quantized linear-predictive transform coefficients. That is, when the interframe correlation is high, the prediction selector 170 outputs a quantized result except for the prediction by using the transform coefficient of the previous frame. When the interframe correlation is low, the prediction selector 170 quantizes the original transform coefficient. Output the result.
  • the decoder 200 includes a first inverse quantizer 210-1, a second inverse quantizer 210-2, and a codebook updater 220, and includes an Nth inverse quantizer ( 210 -N), the vector merger 230, and the linear prediction synthesizer 240 may be further included.
  • the first code vector is passed to the vector merger 230, in particular the last component of the first code vector (eg,
  • the codebook updater 220 removes one or more surplus code vectors from the initial codebook for the second subvector using the last component of the first code vector. In addition, using the last component of the first code vector, one or more additional code vectors are added to the initial codebook to generate an update codebook for the second sub vector.
  • the detailed operation of the codebook updating unit 220 is described above with reference to FIG. 1. Since it is almost similar to the codebook updater 140 described, a detailed description thereof will be omitted.
  • the codebook updating unit 220 generates an update codebook for the third sub vector using the last component of the second code vector, and updates the N sub vector using the last component of the N-1 code vector. Create a codebook.
  • the second inverse quantization unit 210-2 receives the second codebook index and determines, as a second code vector, a code vector for the second codebook index from among a plurality of code vectors included in the update codebook.
  • the second code vector is passed to the vector merger 230, of which the last component of the second code vector is passed to the codebook updater 220.
  • the N-th inverse quantizer 210-N searches for an update codebook for the N-th subvector generated by the codebook updater 220, thereby extracting an N-th code vector for the N-th codebook index and concatenating the vector merger. Forward to 230.
  • the vector merging unit 230 merges the first code vector, the second code vector, and the N-th code vector in a predetermined arrangement to obtain a de-quantized linear-prediction transform coefficient and transfer it to the linear prediction synthesis unit 240. do.
  • the linear prediction synthesis unit 240 generates an audio signal by performing linear-prediction (LPC) synthesis, which is a reverse process of the linear-prediction analysis, on the linear-prediction transform coefficients.
  • LPC linear-prediction
  • FIG. 6 is a view showing the configuration of an encoder in an audio signal processing apparatus according to a second embodiment of the present invention
  • FIG. 7 is a view for explaining the concept of an arrangement, a reference subvector and a non-reference subvector according to the present invention.
  • 8 to FIG. 12 shows first to fifth examples of an arrangement, a reference subvector, and a non-reference subvector.
  • FIG. 13 is a diagram illustrating a decoder of an audio signal processing apparatus according to a second embodiment of the present invention.
  • the encoder 300 includes a first independent quantization unit 330-1, a first dependent quantization unit 340-1, and a red-eye codebook generation unit 350.
  • the linear prediction analyzer 310, the array 320, the N-th independent quantizer 330 -N, and the M-th independent quantizer 340 -M may be further included.
  • linear prediction analyzer 310 performs the same function as the linear prediction analyzer 110 described above with reference to FIG. 1, a detailed description thereof will be omitted.
  • the arranging unit 320 (re) arranges the plurality of linear-prediction transform coefficients received from the linear prediction analyzing unit 310 according to a predetermined arrangement rather than an ascending order.
  • line - of a prediction transform coefficients shown are arranged in ascending order of a total of up to 16 days time, the first factor (last factor from W0 (W 16)
  • FIG. 7 (B) Note that a given array is shown, rather than an array in right order, where each element of the reference subvector (or reference code vector) is non-referenced subvector (or non-referenced) based on the ordering nature.
  • the arranging unit 320 stores the target vector according to the above-described arrangement into at least one reference subvector (from the first reference subvector to the Nth reference subvector), and at least one non-reference subvector (first non-reference sub).
  • the reference subvector refers to a subvector referred to in generating an adaptive codebook of another subvector (non-reference subvector), and a non-reference subvector is referred to to generate a decoded codebook of another subvector. Does not mean subvectors.
  • Each array can have a different number and location of reference and non-reference subvectors.
  • FIG. 8A when the first example has 16 linear-predictive transform coefficients, an example of the array is shown.
  • the second example is a total
  • the third example is an example of the arrangement, when there are a total of nine coefficients, (A) and ( An example of the arrangement is shown when B) is twelve and FIG. 12 (A) and (B) are fifteen.
  • One or more reference subvectors are passed to an independent quantizer 330 (not shown) (first independent to Nth independent quantizer 330 -N), and one or more non-reference subvectors are each dependent quantizer 340: (Not shown) (the first dependent quantizer 340-1 to the M-th dependent quantizer 340-M)
  • the independent quantizer is quantized regardless of the quantized result of the other subvectors, and the dependent quantizer is the other sub Quantize using the quantized result of the vector (ie, reference code vectors).
  • the first independent quantization unit 330-1 to the Nth independent quantization unit 330 -N quantize the first reference subvector to the Nth reference subvector using an initial codebook, thereby providing the first reference code vector to Nth.
  • the initial codebook may be a codebook made through the LBG algorithm using statistical characteristics of the training vector, but the present invention is not limited thereto.
  • two or more components of the first reference code vector to the Nth reference code vector are transmitted to the red horn codebook generation unit 350 as a minimum value and a maximum value.
  • the first non-reference subvector is configured from W 4 to W 7 .
  • the first non-reference subvector is larger than the last previous component (w 3 ) of the first reference code vector, which is the result of the quantization of the first reference subvector, and the last component (w).
  • Has a smaller value than 8 That is, the last previous component (w 3 ) becomes the minimum value of the first non-reference subvector, and the last component (W 8 ) is the maximum value of the first non-reference subvector.
  • FIG. 8B shows the relationship between the minimum value and the maximum value of the second non-referenced subvector. Since the second non-reference subvector includes W 9 through W 12 , according to the ordering nature, it is larger than the last component (W 8 ) of the first reference code vector, and the first component (W 13 ) of the second reference code vector (W 13 ). Since they must be smaller, each can be determined as the minimum and maximum values.
  • the minimum value is the last previous component (W 3 ) of the first reference code vector and the maximum value. Is the last component (W 8 ).
  • the minimum value is the last previous component (w 2 ) of the first reference code vector
  • the maximum value is The last component (w 6 ).
  • the first non-reference subvectors W 3 to W 5 are the first ratios of the first, second and third examples.
  • the minimum value is the last previous component (W 2 ) of the first reference code vector and the maximum value is the last component (w 6 ) of the first reference code vector.
  • the second non-reference subvectors W 7 to W 9 are, like the second non-reference subvectors in the first example, the last component W of the first reference code vector. 6 ) is the minimum value, and the first component W 10 of the second reference code vector is the maximum value.
  • the first non-reference subvectors W 3 to W 5 are the same as those of the first example, the second example, the third example, and the fourth non-reference subvector.
  • the minimum value is the last previous component (W 2 ) of the first reference code vector
  • the maximum value is the last component (W 6 ) of the first reference code vector.
  • the second non-reference subvector W 9 -W U of the fifth example is the last previous component W 8 of the System 2 reference code vector, and the maximum value is the last component Wl 2 of the second reference code vector.
  • the independent quantization unit 330 thus determines two or more components of one or more reference code vectors that are the result of performing quantization on one or more reference subvectors.
  • the minimum value and the maximum value are transmitted to the red horn codebook generation unit 350.
  • the method of determining the minimum value and the maximum value for each non-referenced subvector is as described with reference to FIGS. 8 to 12. For example, in the case of the first example shown in FIG.
  • the last previous component and the last component of the first reference codevector are passed as minimum and maximum values of the first non-reference subvector, respectively.
  • the last component and the first component of the second reference codevector are passed as the minimum and maximum values of the second non-reference subvector.
  • the adaptive codebook generation unit 350 generates a red-eye codebook for the corresponding non-reference subvector using the minimum and maximum values for each non-reference subvector.
  • a homogen codebook first, an initial codebook for the corresponding non-referenced subvector is generated by using the LBG algorithm, and a normalized codebook is generated by normalizing the initial codebook.
  • FIG. 14A is an example of a normalized codebook
  • FIG. 14B is an example of a red-eye codebook.
  • 14 shows an example of a two-dimensional bag ⁇ ⁇ 2 ] due to the limitation of the ground.
  • the adaptive codebook generation unit 350 generates a red-eye codebook by applying the minimum value and the maximum value to the normalized codebook. At this time, the following equation may be used.
  • Codebooka dap (Max-Mix) (Codebook n + Min)
  • Codebooka d ap is the adaptive codebook
  • Codebook n is the normalized codebook
  • Max is the maximum
  • Mix is the minimum
  • code vectors with components smaller than the minimum value or larger than the maximum value correspond to redundancy. Therefore, by removing such redundancy and including code vectors close to the target sub-vector in the codebook, the sound quality can be improved by minimizing the quantization error without increasing the number of bits.
  • the adaptive codebook is delivered to the subordinate quantization unit 340 by the red-eye codebook generation unit 350 generated in the above manner.
  • the dependent quantizer 340 vectorizes the first non-reference subvector using the adaptive codebook to generate one or more non-reference codevectors.
  • the first dependent quantization unit 340-1 generates a first non-reference codevector by quantizing the first non-reference subvector using a red-eye codebook for the first non-reference subvector.
  • the M-th dependent quantization unit 340 -M generates a first non-reference codevector by quantizing the M non-reference subvector using an adaptive codebook for the M non-reference subvector.
  • the bitstream includes a reference codebook index corresponding to the reference codevector, which is the output of the independent and dependent quantization units 330 and 340, and a non-reference codebook index corresponding to the non-reference codevector.
  • the encoder 300 may further include a multiplexer, a second stage quantization unit, and a prediction selector, wherein the function of each component is described above. Since it is almost similar to the description, a detailed description thereof will be omitted.
  • the audio signal processing apparatus can be included and used in various products. These products can be broadly divided into stand alone and portable groups, which can include TVs, monitors, and set-top boxes, and portable groups can include PMPs, mobile phones, and navigation. Can be.
  • FIG. 15 is a diagram illustrating a relationship between products in which an audio signal processing device according to an embodiment of the present invention is implemented.
  • the wired / wireless communication unit 510 receives a bitstream through a wired / wireless communication method.
  • the wired / wireless communication unit 510 may include at least one of a wired communication unit 510A, an infrared communication unit 510B, a Bluetooth unit 510C, and a wireless LAN communication unit 510D.
  • the user authentication unit 520 receives user information and performs user authentication.
  • the user authentication unit 520 may include one or more of the fingerprint recognition unit 520A, the interest recognition unit 520B, the face recognition unit 520C, and the voice recognition unit 520D.
  • the input unit 530 is an input device for the user to input various types of commands, and may include one or more of a keypad unit 530A, a touch pad unit 530B, and a remote controller unit 530C.
  • the present invention is not limited thereto.
  • the signal coding unit 540 encodes or decodes an audio signal and / or a video signal received through the wired / wireless communication unit 510 and outputs an audio signal of a time domain.
  • Audio signal processing apparatus 545 which is an embodiment of the invention described above (i.e., encoder 100 and / or decoder 200 according to the first embodiment, encoder 300 according to the second embodiment). And / or decoder 400), the audio processing apparatus 545 and the signal coding unit including the same may be implemented by one or more processors.
  • the controller 550 receives input signals from the input devices and controls all processes of the signal decoding unit 540 and the output unit 560.
  • the output unit 560 is a component in which an output signal generated by the signal decoding unit 540 is output, and may include a speaker unit 560A and a display unit 560B. When the output signal is an audio signal, the output signal is output to the speaker, and when the output signal is a video signal, the output signal is output through the display.
  • FIG. 16 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented.
  • FIG. 16 illustrates a relationship between a terminal and a server corresponding to the product illustrated in FIG. 15.
  • the first terminal 500 the first terminal 500.
  • the second terminal 500.2 it can be seen that each terminal can communicate data to the bitstream in both directions through the wired or wireless communication unit.
  • the server 600 and the first terminal 500.1 may also perform wired or wireless communication with each other.
  • the audio signal processing method according to the present invention can be stored in a computer-readable recording medium which is produced as a program for execution in a computer, and multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium.
  • the computer readable recording medium includes all kinds of storage devices for storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of carrier wave (for example, transmission over the Internet). Include.
  • the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired / wireless communication network.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

The present invention relates to a method and apparatus for processing an audio signal, wherein the method comprises the following steps: performing a linear predictive analysis on the audio signal of the current frame to generate a target vector corresponding to a plurality of linear predictive transform coefficients; generating, from the target vector, a plurality of sub-vectors including a first sub-vector and a second sub-vector; vector-quantizing the first sub-vector to obtain a first code vector; removing one or more redundant code vectors from an initial code book for the second sub-vector, using the last component of the first code vector; adding one or more code vectors to the initial code book using the last component of the first code vector to update the code book; and vector-quantizing the second sub-vector using the updated code book to obtain a second code vector, wherein said added code vectors are predicted on the basis of the last component of the first code vector.

Description

[DESCRIPTION]  [DESCRIPTION]
[Invention Title】  [Invention Title]
오디오 신호 처 리 방법 및 장치 [Technical Field]  Audio signal processing method and device [Technical Field]
본 발명은 오디오 신호를 인코딩하거나 디코딩할 수 있는 오디오 신호 처리 방법 및 장치에 관한 것이다.  The present invention relates to an audio signal processing method and apparatus capable of encoding or decoding an audio signal.
[Background Art]  [Background Art]
일반적으로, 오디오 신호 중 특히 음성 신호의 특성 이 강한 경우에는, 오디오 신호에 대해서 선형 예측 코딩 (LPC: linear predictive coding)을 수행한다. 선형 예측 코딩에 의해 생성된 선형 -예측 계수를 디코더에 전송하고, 디코더는 이 계수에 대해 선형 예측 합성을 통해서 오디오 신호를 복원한다.  In general, linear predictive coding (LPC) is performed on an audio signal, particularly when the audio signal has a strong characteristic. The linear-predictive coefficients generated by the linear predictive coding are sent to a decoder, which reconstructs the audio signal through linear predictive synthesis on the coefficients.
[Disclosure]  [Disclosure]
[Technical Problem】  Technical Problem
상기 선형 -예측 계수 또는 선형 -예측 변환 계수를 디코더에 전송하기 위해 백터-양자화를 수행하는 데, 이때 양자화 에 러가 발생되기 때문에, 음질이 왜곡되는 문제점이 있다.  Vector-quantization is performed to transmit the linear-prediction coefficient or the linear-prediction transform coefficient to the decoder, and since there is a quantization error, sound quality is distorted.
[Technical Solution]  [Technical Solution]
본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서 , 선형- 예측 변환 계수를 백터 -양자화하는 있어서 , 서브백터 별 코드북을 적응적으로 구성하는 오디오 신호 처리 방법 및 장치를 제공하는 데 있다. 본 발명의 또 다른 목적은, 선형 -예측 변환 계수의 순서화 성질 (order property)을 이용하여, 코드북의 불필요 (redundancy)를 제거하고, 타깃 백터와 유사한 코드 백터를 코드북에 추가하기 위한 오디오 신호 처 리 방법 및 장치를 제공하는 데 있다. SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and provides an audio signal processing method and apparatus for adaptively configuring a codebook for each subvector in vector-quantizing linear-prediction transform coefficients. Another object of the present invention is to use an order property of the linear-predictive transform coefficients to remove the redundancy of the codebook and to add a code vector similar to the target vector to the codebook. A method and apparatus are provided.
본 발명의 또 다른 목적은, 선형 -예측 변환 계수의 순서화 성질을 근거로, 이전에 양자화된 계수를 이용하여 최 대값 및 최소값에 대웅하는 코드북을 생성하기 위한 오디오 신호 처리 방법 및 장치를 제공하는 데 있다.  It is still another object of the present invention to provide an audio signal processing method and apparatus for generating a codebook based on the ordering nature of linear-predictive transform coefficients, using the previously quantized coefficients. have.
[Advantageous Effects]  [Advantageous Effects]
본 발명은 다음과 같은 효과와 이점을 제공한다.  The present invention provides the following effects and advantages.
첫째, 타깃 백터 (타깃 서브백터)와 유사한 코드 백터가 코드북에 추가되지만, 불필요한 코드 백터는 코드북에서 제외되기 때문에, 총 코드북의 크기는 동일 또는 거의 유사하게 유지되기 때문에, 비트수를 증가시키지 않으면서 양자화 에러를 최소화할 수 있다.  First, a code vector similar to a target vector (target subvector) is added to the codebook, but since unnecessary code vectors are excluded from the codebook, the total codebook size remains the same or almost similar, without increasing the number of bits. Quantization error can be minimized.
둘째, 순서화 성 질을 이용하여 최소값 및 최대값을 추정하기 때문에, 별도의 비트를 소요하지 않고도 양자화 에러를 최소화할 수 있다.  Second, since the minimum and maximum values are estimated using the ordering property, the quantization error can be minimized without requiring extra bits.
[Description of Drawings】  Description of Drawings
도 1 은 본 발명의 제 1 실시 예에 따른 오디오 신호 처리 장치 중 인코더의 구성도.  1 is a block diagram of an encoder in an audio signal processing apparatus according to a first embodiment of the present invention.
도 2 는 선형 -예측 변환 계수 및 타깃 백터, 서브 백터의 개념을 설명하기 위한 도면. 도 3 은 본 발명에 따른 서브백터 별 코드북의 개념을 설명하기 위한 도면. 2 is a diagram for explaining the concept of a linear-prediction transform coefficient, a target vector, and a sub vector. 3 is a diagram illustrating a concept of a codebook for each subvector according to the present invention;
도 4 는 본 발명에 따른 코드북 갱신 개념을 설명하기 위한 도면.  4 is a diagram for explaining a codebook update concept according to the present invention;
도 5 는 본 발명의 제 1 실시 예에 따른 오디오 신호 처리 장치 중 디코더의 구성도.  5 is a block diagram of a decoder in an audio signal processing apparatus according to a first embodiment of the present invention.
도 6 은 본 발명의 제 2 실시 예에 따른 오디오 신호 처리 장치 중 인코더의 구성도.  6 is a block diagram of an encoder in an audio signal processing apparatus according to a second embodiment of the present invention.
도 7 는 본 발명에 따른 배열, 참조 서브백터 및 비 -참조 서브백터의 개념을 설명하기 위한 도면.  7 illustrates the concept of an arrangement, reference subvector and non-reference subvector according to the present invention;
도 8 은 배열, 참조 서브백터, 비 -참조 서브백터의 제 1 예.  8 is a first example of an array, reference subvector, non-reference subvector.
도 9 는 배열, 참조 서브백터, 비 -참조 서브백터의 제 2 예.  9 shows a second example of an array, reference subvector, and non-reference subvector.
도 10 은 배열, 참조 서브백터, 비 -참조 서브백터의 제 3 예.  10 shows a third example of an array, reference subvector, non-reference subvector.
도 11 은 배열, 참조 서브백터 , 비 -참조 서브백터의 제 4 예.  11 shows a fourth example of an array, reference subvector, non-reference subvector.
도 12 는 배열, 참조 서브백터 , 비 -참조 서브백터의 제 5 예.  12 shows a fifth example of an array, reference subvector, non-reference subvector.
도 13 은 본 발명의 제 2 실시 예에 따른 오디오 신호 처리 장치 중 디코더의 구성도.  13 is a block diagram of a decoder in an audio signal processing apparatus according to a second embodiment of the present invention.
도 14 는 정규화된 코드북의 일 예, 및 적웅 코드북의 일 여 L  14 is an example of a normalized codebook, and one or more L of a red-eye codebook.
도 15 는 본 발명의 실시 예에 따른 오디오 신호 처리 장치가 구현된 제품의 개략적인 구성도.  15 is a schematic structural diagram of a product implemented with an audio signal processing apparatus according to an embodiment of the present invention;
도 16 은 본 발명의 일 실시 예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도. [Best Mode] 16 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented. [Best Mode]
상기와 같은 목적을 달성하기 위하여 본 발명에 따른 오디오 신호 처리 방법은, 현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써, 복수의 선형 -예측 변환 계수들에 대웅하는 타깃 백터를 생성하는 단계; 제 1 서브백터 및 제 2 서브백터를 포함하는 복수의 서브백터로 상기 타깃 백터를 생성하는 단계; 상기 제 1 서브백터를 백터 양자화함으로써 제 1 코드 백터를 획득하는 단계; 상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하는 단계; 상기 계 1 코드 백터의 마지막 성분을 이용하여, 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 단계; 및, 상기 갱신 코드북을 이용하여, 상기 제 2 서브백터를 백터 양자화함으로써, 제 2 코드 백터를 획득하는 단계를 포함하고, 상기 추가 코드 백터는 상기 제 1 코드 백터의 마지막 성분을 기초로 예측된 것이다.  In order to achieve the above object, an audio signal processing method according to the present invention comprises: generating a target vector for a plurality of linear-predictive transform coefficients by performing a linear-prediction analysis on an audio signal of a current frame. ; Generating the target vector with a plurality of subvectors including a first subvector and a second subvector; Obtaining a first code vector by vector quantizing the first subvector; Using the last component of the first code vector, removing one or more redundant code vectors from an initial codebook for the second sub vector; Generating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; And, using the update codebook, vector quantizing the second subvector to obtain a second code vector, wherein the additional code vector is predicted based on a last component of the first code vector. .
본 발명에 따르면, 상기 잉여 코드 백터의 개수는 상기 추가 코드 백터의 개수와 동일한 것일 수 있다.  According to the present invention, the number of redundant code vectors may be the same as the number of additional code vectors.
본 발명에 따르면, 상기 갱신 코드북을 생성하는 단계는, 상기 제 1 코드 백터의 마지막 성분을 이용하여 최초 성분 예측값을 획득하는 단계; 상기 최초 성분 예측값을 이용하여 상기 초기 코드북으로부터 둘 이상의 후보 코드 백터들을 선택하는 단계; 상기 후보 코드 백터들을 내삽함으로써 , 임시 코드 백터를 생성하는 단계; 상기 임시 코드 백터 증 순서화 성질을 만족하는 코드 백터들을 상기 추가 코드 백터로서 선정하는 단계; 및, 상기 추가 코드 백터를 상기 초기 코드북에 부가함으로써 상기 갱신 코드북을 생성하는 단계를 포함하는 것 일 수 있다. According to the present invention, the generating of the update codebook includes: obtaining an initial component prediction value by using a last component of the first code vector; Selecting two or more candidate code vectors from the initial codebook using the original component prediction value; Temporary code by interpolating the candidate code vectors Creating a vector; Selecting code vectors that satisfy the temporary code vector increment ordering property as the additional code vector; And generating the update codebook by adding the additional code vector to the initial codebook.
본 발명에 따르면, 상기 최초 성분 예측값은 증가 평균 (gradient mean)을 상기 제 1 코드 백터의 마지막 성분에 더함으로써 획득되고, 상기 증가 평균은, 상기 제 1 코드 백터의 현재 성분 및 이 전 성분간의 차이를 근거로 하는 것 일 수 있다.  According to the present invention, the initial component prediction value is obtained by adding a gradient mean to the last component of the first code vector, and the increment average is a difference between the current component and the previous component of the first code vector. It may be based on.
본 발명에 따르면, 상기 둘 이상의 후보 코드 백터는, 상기 제 2 서브백터를 위한 코드북에 포함된 코드 백터들의 최초 성분과, 상기 최초 성분 예측값과의 차이를 근거로 선택되는 것일 수 있다.  According to the present invention, the two or more candidate code vectors may be selected based on a difference between an initial component of code vectors included in a codebook for the second sub vector and the first component prediction value.
본 발명에 따르면, 상기 갱신 코드북은, 오름차순 정렬에 있어서, 상기 초기 코드북에서의 상기 잉여 코드 백터의 다음에 위치하였던 코드 백터에 대해, 첫번째 인덱스가 부여된 것일 수 있다.  According to the present invention, in the ascending sorting, the update codebook may be assigned a first index to a code vector located after the redundant code vector in the initial codebook.
본 발명의 또 다른 측면에 따르면, 현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써, 복수의 선형 -예측 변환 계수들에 대웅하는 타깃 백터를 생성하는 선형 예측부; 제 1 서브백터 및 제 2 서브백터를 포함하는 복수의 서브백터로 상기 타깃 백터를 생성하는 백터 분할부; 상기 제 1 서브백터를 백터 양자화함으로써 제 1 코드 백터를 획득하는 제 1 양자화부; 상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하고, 상기 제 1 코드 백터의 마지막 성분을 이용하여 , 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 코드북 갱신부; 및, 상기 갱신 코드북을 이용하여, 상기 제 2 서브백터를 백터 양자화함으로써 , 제 2 코드 백터를 획득하는 제 1 양자화부를 포함하고, 상기 추가 코드 백터는 상기 제 1 코드 백터의 마지막 성분올 기초로 예측된 것 인 오디오 신호 처리 장치가 제공된다. According to another aspect of the present invention, by performing a linear-prediction analysis on the audio signal of the current frame, a linear predictor for generating a target vector for a plurality of linear-predictive transform coefficients; A vector divider configured to generate the target vector from a plurality of subvectors including a first subvector and a second subvector; A first code vector obtained by vector quantizing the first sub vector Quantization unit; Using the last component of the first code vector, one or more redundant code vectors are removed from the initial codebook for the second subvector, and the last component of the first code vector is used to remove one or more redundant code vectors from the initial codebook. A codebook updater for generating an update codebook by adding an additional code vector; And a first quantizer for obtaining a second code vector by vector quantizing the second subvector using the update codebook, wherein the additional code vector is predicted based on the last component of the first code vector. An audio signal processing apparatus is provided.
본 발명의 또 다론 측면에 따르면, 제 1 코드 백터의 제 1 코드북 인덱스: 및 제 2 코드 백터의 제 2 코드북 인덱스를 수신하는 단계; 제 1 코드북 인텍스를 이용하여 상기 제 1 코드 백터의 마지막 성분을 획득하는 단계; 상기 제 1 코드 백터의 마지막 성분을 이용하여, 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하는 단계; 상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 단계; 상기 갱신 코드북 및 상기 제 2 코드북 인텍스를 이용하여, 제 2 서브백터를 획득하는 단계를 포함하고, 상기 추가 코드 백터는 상기 제 1 코드 백터의 마지막 성분을 이용하여 예측된 것인 오디오 신호 처리 방법이 제공된다. 본 발명의 또 다른 측면에 따르면, 현재 프레임의 오디오 신호에 대해 선형ᅳ예측 분석을 수행함으로써, 복수의 선형 -예측 변환 계수들을 생성하는 단계; 상기 ' 복수의 선형 -예측 변환 계수들을 배열함으로써 , 하나 이상의 참조 서브백터, 및 하나 이상의 비 -참조 서브백터를 생성하는 단계; 상기 하나 이상의 참조 서브백터에 대해 백터 양자화를 수행함으로써 , 참조 코드 백터를 획득하는 단계; 상기 참조 코드 백터들의 각 성분 중 두 개의 성분을 이용하여, 상기 비 -참조 서브백터의 최소값 및 최 대값을 추정하는 단계; 상기 최소값 및 상기 최 대값을 이용하여 상기 비 -참조 서브백터를 위한 적웅 코드북을 생성하는 단계; 및, 상기 적웅 코드북을 이용하여, 상기 비 -참조 서브백터에 대해 백터 양자화를 수행함으로써, 비 -참조 코드 백터를 획득하는 단계를 포함하는 오디오 신호 처 리 방법 이 제공된다. According to another aspect of the invention, there is provided a method comprising : receiving a first codebook index of a first code vector : and a second codebook index of a second code vector; Obtaining a last component of the first code vector using a first codebook index; Using the last component of the first code vector, removing one or more redundant code vectors from an initial codebook for a second subvector; Generating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; Obtaining a second subvector using the update codebook and the second codebook index, wherein the additional code vector is predicted using the last component of the first code vector. Is provided. According to another aspect of the present invention, there is provided a method of generating a plurality of linear-predictive transform coefficients by performing a linear-prediction analysis on an audio signal of a current frame; Generating a reference sub-vectors the 'plurality of linearly-arranged by the predictive transform coefficients, the one or more reference sub-vectors, and at least one ratio; Obtaining a reference code vector by performing vector quantization on the one or more reference subvectors; Estimating the minimum and maximum values of the non-referenced subvectors using two components of each component of the reference code vectors; Generating a red-eye codebook for the non-referenced subvector using the minimum and the maximum values; And acquiring a non-reference code vector by performing vector quantization on the non-reference subvector using the decoded codebook.
본 발명에 따르면, 상기 적웅 코드북을 생성하는 단계는; 정규화된 코드 백터들을 획득하는 단계; 및, 상기 정규화된 코드백터들에 상기 최소값 및 상기 최대값을 적용함으로써 , 상기 적웅 코드북을 생성하는 단계를 포함할 수 있다.  According to the present invention, the step of generating the red-eye codebook; Obtaining normalized code vectors; And generating the red-eye codebook by applying the minimum value and the maximum value to the normalized codevectors.
본 발명에 따르면, 상기 참조 코드 백터는 제 1 참조 코드 백터를 포함하고, 상기 참조 코드 백터들의 두 개의 성분은, 상기 제 1 참조 코드 백터의 마지 막 성분 및 마지막 이 전 성분일 수 있다. 본 발명에 따르면, 상기 참조 코드 백터는 제 1 참조 코드 백터 및 제 2 참조 코드 백터를 포함하고, 상기 참조 코드 백터들의 두 개의 성분은, 상기 제 1 참조 코드 백터의 마지막 성분 및, 상기 제 2 참조 코드 백터의 첫 번째 성분일 수 있다. According to the present invention, the reference code vector includes a first reference code vector, and two components of the reference code vectors may be the last component and the last previous component of the first reference code vector. According to the present invention, the reference code vector includes a first reference code vector and a second reference code vector, wherein two components of the reference code vectors are the last component of the first reference code vector and the second reference. It may be the first component of the code vector.
본 발명에 따르면, 상기 최소값 및 상기 최 대값은 선형 -예측 변환 계수들의 순서화 성질에 기초하여 추정되는 것일 수 있다.  According to the present invention, the minimum value and the maximum value may be estimated based on the ordering property of the linear-prediction transform coefficients.
본 발명에 따르면, 상기 복수의 선형 -예측 변환 계수들의 상기 배열은, [Wl, W2, W3, W8, W13, W14, W15, W16, W4, W5, W6, W7, W9, WIO, Wl l, W12], [Wl, W2, W3, W8, W4, W5, W6, W7], [Wl, W2, W6, W3, W4, W5, W7, W8, W9], [WL W2, W6, W3, W4, W5, WIO, Wl l, W12, W7, W8, W9], 및 [Wl, W2, W6, W3, W4, W5, W7, W8, W12, W9, W10, Wl l, W13, W14, W15](WX는 X 번째 선형 -예측 변환 계수)중에 하나이고, 상기 참조 서브백터는, {Wl W2 W3 W8}, {W13 W14 W15 W16}, {Wl W2 W6}, {WIO Wl l W12}, 및 {W7 W8 W12} (여기서 WX 는 X 번째 선형 -예측 변환 계수) 중 하나 이상이고, 상기 비 -참조 서브백터는, {W4 W5 W6 W7}, {W9 WIO Wl l W12}, {W3 W4 W5}, {Wl W2 W6}, {WIO Wl l W12}, {W7 W8 W12} (여기서 Wx는 X 번째 선형 -예측 변환 계수) 중 하나 이상일 수 있다. 본 발명의 또 다른 측면에 따르면, 현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써 , 복수의 선형 -예측 변환 계수들을 생성하는 선형 예측 분석부; 상기 복수의 선형 -예측 변환 계수들을 배열함으로써, 하나 이상의 참조 서브백터, 및 하나 이상의 비 -참조 서브백터를 생성하는 배열부; 상기 하나 이상의 참조 서브백터에 대해 백터 양자화를 수행함으로써, 참조 코드 백터를 획득하는 독립 양자화부; 상기 참조 코드 벡터들의 각 성분 중 두 개의 성분을 이용하여, 상기 비 -참조 서브백터의 최소값 및 최대값을 추정하고, 상기 최소값 및 상기 최대값을 이용하여 상기 적웅 코드북을 생성하는 적응코드북 생성부; 및, 상기 적응 코드북을 이용하여, 상기 비 -참조 서브백터에 대해 백터 양자화를 수행함으로써, 비 -참조 코드 백터를 획득하는 종속 양자화부를 포함하는 오디오 신호 처 리 방법 이 제공된다. According to the invention, the arrangement of the plurality of linear-prediction transform coefficients is [Wl, W2, W3, W8, W13, W14, W15, W16, W4, W5, W6, W7, W9, WIO, Wl, W12], [Wl, W2, W3, W8, W4, W5, W6, W7], [Wl, W2, W6, W3, W4, W5, W7, W8, W9], [WL W2, W6, W3, W4 , W5, WIO, Wl, W12, W7, W8, W9], and [Wl, W2, W6, W3, W4, W5, W7, W8, W12, W9, W10, Wl, W13, W14, W15] (W X is one of the X-th linear-predictive transform coefficients), and the reference subvector includes {Wl W2 W3 W8}, {W13 W14 W15 W16}, {Wl W2 W6}, {WIO Wl W1}, and {W7 W8 W12} (where WX is the X-th linear-predictive transform coefficient), and the non-referenced subvectors are {W4 W5 W6 W7}, {W9 WIO Wl W12}, {W3 W4 W5} , {Wl W2 W6}, {WIO Wl W12}, {W7 W8 W12}, where W x is an X-th linear-predictive transform coefficient. According to another aspect of the present invention, by performing a linear-prediction analysis on the audio signal of the current frame, a linear prediction analyzer for generating a plurality of linear-predictive transform coefficients; By arranging the plurality of linear-predictive transform coefficients, one An array for generating the at least one reference subvector and at least one non-reference subvector; An independent quantizer that obtains a reference code vector by performing vector quantization on the one or more reference subvectors; An adaptive codebook generation unit for estimating a minimum value and a maximum value of the non-reference subvector using two components of each of the reference code vectors, and generating the degenerate codebook using the minimum value and the maximum value; And a dependent quantizer for acquiring a non-reference code vector by performing vector quantization on the non-reference subvector using the adaptive codebook.
본 발명의 또 다른 측면에 따르면, 하나 이상의 참조 코드 백터의 참조 코드북 인텍스, 및 하나 이상의 비 -참조 코드 백터의 비 -참조 코드북 인텍스를 수신하는 단계; 상기 하나 이상의 참조 코드북 인텍스를 이용하여, 하나 이상의 참조 코드 백터들을 획득하는 단계; 상기 참조 코드 백터들의 각 성분 중 두 개의 성분을 이용하여, 비 -참조 서브백터의 최소값 및 최 대값을 추정하는 단계; 상기 최소값 및 상기 최 대값을 이용하여 상기 비 -참조 서브백터를 위한 적웅 코드북을 생성하는 단계; 및, 상기 적웅 코드북 및 상기 비 -참조 코드북 인덱스를 이용하여, 상기 비 -참조 서브백터를 획득하는 단계를 포함하는 오디오 신호 처 리 방법 이 제공된다.  According to another aspect of the invention, there is provided a method comprising: receiving a reference codebook index of one or more reference code vectors, and a non-reference codebook index of one or more non-reference code vectors; Acquiring one or more reference code vectors using the one or more reference codebook indexes; Estimating a minimum and maximum value of a non-reference subvector using two components of each component of the reference code vectors; Generating a red-eye codebook for the non-referenced subvector using the minimum and the maximum values; And acquiring the non-reference subvector using the decod codebook and the non-reference codebook index.
[Mode for Invention] 이하 첨부된 도면을 참조로 본 발명의 바람직한 실시 예를 상세히 설명하기로 한다ᅳ 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적 이거나 사전적 인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적 절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기 재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시 예에 블과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시 점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. [Mode for Invention] Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms or words used in the present specification and claims should not be construed as being limited to conventional or dictionary meanings. The inventor should be interpreted as meanings and concepts corresponding to the technical idea of the present invention based on the principle that the concept of terms can be properly defined in order to explain his invention in the best way. Therefore, the embodiments described in the specification and the drawings shown in the drawings are only the most preferred embodiment of the present invention and do not represent all of the technical idea of the present invention, these are replaced in the present application It should be understood that there may be various equivalents and variations that can be made.
본 발명에서 다음 용어는 다음과 같은 기준으로 해석될 수 있고, 기재되지 않은 용어라도 하기 취지에 따라 해석될 수 있다. 코딩은 경우에 따라 인코딩 또는 디코딩으로 해석될 수 있고, 정보 (information)는 값 (values), 파라미터 (parameter), 계수 (coefficients), 성분 (elements) 등을 모두 아우르는 용어로서, 경우에 따라 의미는 달리 해석될 수 있는 바, 그러나 본 발명은 이에 한정되지 아니한다.  In the present invention, the following terms may be interpreted based on the following criteria, and terms not described may be interpreted according to the following meanings. Coding can be interpreted as encoding or decoding in some cases, and information is a term that encompasses values, parameters, coefficients, elements, and so on. It may be interpreted otherwise, but the present invention is not limited thereto.
여기서 오디오 신호 (audio signal)란, 광의로는, 비디오 신호와 구분되는 개념으로서, 재생 시 청각으로 식별할 수 있는 신호를 지칭하고, 협의로는, 음성 (speech) 신호와 구분되는 개념으로서, 음성 특성이 없거나 적은 신호를 의미한다. 본 발명에서의 오디오 신호는 광의로 해석되어야 하며 음성 신호와 구분되어 사용될 때 협의의 오디오 신호로 이해될 수 있다. 또한 코딩 이 란, 인코딩만을 지칭할 수도 있지만, 인코딩 및 디코딩을 모두 포함하는 개념으로 사용될 수도 있다. Here, the audio signal is broadly defined as a concept that is distinguished from a video signal, and refers to a signal that can be identified by hearing during reproduction. In narrow terms, an audio signal is a concept that is distinguished from a speech signal. Signal with little or no characteristics it means. The audio signal in the present invention should be interpreted broadly and can be understood as a narrow audio signal when used separately from a voice signal. Coding may also refer to encoding only, but may be used as a concept including both encoding and decoding.
도 1 은 본 발명의 제 1 실시 예에 따른 오디오 신호 처리 장치 증 인코더의 구성을 보여주는 도면이다. 도 2 내지 도 4 는 도 1 의 인코더의 구성을 설명하기 위한 도면이다.  1 is a block diagram of an audio signal processing device enhancement encoder according to a first embodiment of the present invention. 2 to 4 are diagrams for explaining the configuration of the encoder of FIG.
도 1 을 참조하면, 제 1 실시 예에 따른 인코더 (100)는 백터 분할부 (120), 제 1 양자화부 (130-1), 제 2 양자화부 (130-2) 및 코드북 갱신부 (140)를 포함하고, 선형 예측 분석부 (110), 및 제 N 양자화부 (130-N)를 더 포함할 수 있다.  Referring to FIG. 1, the encoder 100 according to the first exemplary embodiment may include a vector divider 120, a first quantizer 130-1, a second quantizer 130-2, and a codebook updater 140. And a linear prediction analyzer 110, and an N-th quantizer 130 -N.
선형 예측 분석부 (1 10)는 입 력되는 오디오 신호에 대해서 선형 예측 코딩 (LPC)에 따른 선형 예측 분석을 수행함으로써 , 선형 -예측 계수를 생성한다. 선형 예측 코딩의 모델의 기본 아이디어는, 주어진 시점 n 에서 지나간 p 개의 음성신호의 선형 조합으로 근사할 수 있다는 것인데, 식으로 나타내면 다음과 같다. The linear prediction analyzer 1 10 generates linear-prediction coefficients by performing linear prediction analysis on the input audio signal according to linear prediction coding (LPC). The basic idea of the model of linear predictive coding is that it can be approximated by a linear combination of p speech signals past at a given point in time n .
[수학식 1]  [Equation 1]
S(n) - qiS(n-l) + q2S(n-2) + -- + qpS(n-p) S (n)-qiS (nl) + q 2 S (n-2) +-+ q p S (np)
여기서, 는 선형 -예측 계수 , η 은 프레임 인덱스 , ρ 은 선형 예측 차수 이와 같이 획득된 선형 -예측 계수는 큰 다이나믹 레인지를 갖기 때문에, 보다 적은 비트 수로 양자화될 필요가 있고, 선형 -예측 계수는 양자화 에 러에 약하기 때문에 , 양자화 에 러에 강인한 계수로 변환될 필요가 있다. 따라서, 선형 예측 분석부 (110)는 선형 -예측 계수를 선형 -예측 변환 계수 (Wi)로 변환한다. 여기서 선형 -예측 변환 계수란, LSP(Line Spectral Pairs), ISP(Immittance Spectral Pairs) 또는, LSF(Line Spectrum Frequency) 또는 ISF(Immittance Spectral Frequency) 중 하나일 수 있으나, 본 발명은 이에 한정되지 아니한다. 여기서 ISF 는 다음 수학식과 같이 나타낼 수 있다.¬Where is a linear-prediction coefficient, η is a frame index and ρ is a linear prediction order. Since the linear-predicted coefficients obtained in this way have a large dynamic range, they need to be quantized with fewer bits, and the linear-prediction coefficients are quantized. Because it is weak to errors, it needs to be converted into coefficients that are robust to quantization errors. Accordingly, the linear prediction analyzer 110 converts the linear-prediction coefficient into a linear-prediction transform coefficient Wi. Here, the linear-predictive transform coefficient may be one of Line Spectral Pairs (LSP), Implementance Spectral Pairs (ISP), or Line Spectrum Frequency (LSF) or Immunity Spectral Frequency (ISF), but the present invention is not limited thereto. Where ISF can be expressed as
수학식 2]
Figure imgf000014_0001
Equation 2]
Figure imgf000014_0001
여기서 Φ 는 선형 -예측 계수, fi 는 ISF 의 [0,6400Hz]의 주파수 영 역을 가르키고, fs=12800 는 샘플링 주파수이다. Where Φ is the linear-prediction coefficient, fi is the frequency range of [0,6400Hz] of the ISF, and f s = 12800 is the sampling frequency.
도 2 는 선형 -예측 변환 계수 및 타깃 백터 , 서브 백터의 개념을 설명하기 위한 도면이다. 도 2 의 (A)를 참조하면, 총 16 개의 선형 -예측 변환 계수들 (Wi, i:l~16)가 순서 대로 배열되어 있음을 알 수 있다. 선형 -예측 변환 계수는 도 2 와 같이 총 16 개 (즉, 차수가 16)일 수 있지만, 본 발명은 이에 한정되지 아니한다. 선형 -예측 변환 계수들이 순서대로 배열된 경우, 이를 16 차원의 타깃 백터라 지칭할 수 있다. 이 선형 -예측 변환 계수들은 도 2 의 (B) 및 다음 수학식에 나타난 바와 같이, 순서화 성질을 갖는다.  FIG. 2 is a diagram for describing the concept of a linear-prediction transform coefficient, a target vector, and a sub vector. Referring to FIG. 2A, it can be seen that a total of 16 linear-prediction transform coefficients Wi, i: 1 to 16 are arranged in order. The linear-prediction transform coefficients may be a total of 16 (ie, order 16) as shown in FIG. 2, but the present invention is not limited thereto. When the linear-predictive transform coefficients are arranged in order, this may be referred to as a target vector of 16 dimensions. These linear-predictive transform coefficients have ordering properties, as shown in Fig. 2B and the following equation.
[수학식 3]  [Equation 3]
0 = < W2 <… < Wp-i < Wp =π , 0 = <W 2 <.. <W p- i <W p = π,
-1< Κ0 < 1 -1 <Κ 0 <1
Wi 는 i 번째 선형 -예측 변환 계수 , ρ 는 차수 , ΚΡ는 ISF 계수의 게인 값 백터 분할부 (120)는 상기 타깃 백터를 분할함으로써 , 둘 이상의 서브백터들을 생성한다. 여기서 서브백터는 제 1 서브백터 및 제 2 서브백터를 포함할 수 있고, 제 N 서브백터까지 포함할 수 있다. 도 2 에 도시된 바와 같이: 제 1 서브백터는 내지 W4, 제 2 서브백터는 W5 내지 W8, 제 3 서브백터는 W9 내지 W12, 제 4 서브백터는 W13 내지 W16 에 대웅할 수 있지만, 본 발명은 이에 한정되지 아니한다. Wi is the i-th linear-predictive transform coefficient, ρ is the order, Κ Ρ is the gain value of the ISF coefficient The vector divider 120 generates two or more subvectors by dividing the target vector. Herein, the subvector may include a first subvector and a second subvector, and may include up to an Nth subvector. As shown in FIG. 2 : the first subvector is from W 4 , the second subvector is from W 5 to W 8 , the third subvector is from W 9 to W 12 , and the fourth subvector is from W 13 to W 16 . Although great, the present invention is not limited thereto.
백터 분할부 (120)에서 생성된 제 1 서브백터는 제 1 양자화부 (130-1)에 전달되고, 제 2 서브백터는 제 2 양자화부 (130-2), 제 N 서브백터는 제 N 양자화부 (130-N)로 전달된다.  The first subvector generated by the vector divider 120 is transferred to the first quantizer 130-1, the second subvector is the second quantizer 130-2, and the Nth subvector is the Nth quantization. Delivered to portion 130-N.
제 1 양자화부 (130-1)는 제 1 서브백터를 백터 -양자화함으로써, 제 1 코드 백터를 획득한다. 이때, 제 1 서브백터를 위한 코드북이 이용될 수 있다.  The first quantization unit 130-1 obtains the first code vector by vector-quantizing the first sub vector. In this case, a codebook for the first sub vector may be used.
도 3 은 본 발명에 따른 서브백터 별 코드북의 개념을 설명하기 위한 도면이다. 도 3 을 참조하면, 제 1 서브백터 내지 제 4 서브백터에 대해서 각각 서브벡터별 코드북 (제 1 서브백터의 코드북, 내지 제 4 서브백터의 코드북)이 존재하는 데, 제 1 서브백터의 양자화에는 초기 코드북이 사용되고, 제 2 서브백터의 양자화에는 갱신 코드북이 사용된다. 초기 코드북은 갱신되지 않은 코드북을 의미하고, 갱신 코드북은 순서화 성질을 이용하여 일부의 코드 백터를 제외하고, 일부의 코드 백터를 추가한 코드북을 의미하는데, 코드북 갱신 과정에 대해서는 코드북 갱신부 (140)에 의해 수행된다.  3 is a diagram for explaining the concept of a codebook for each subvector according to the present invention. Referring to FIG. 3, a codebook for each subvector (codebook of a first subvector and a codebook of a fourth subvector) exists for each of the first subvector to the fourth subvector, and the quantization of the first subvector is performed. An initial codebook is used, and an update codebook is used for quantization of the second subvector. The initial codebook means a codebook that has not been updated, and the update codebook means a codebook in which some code vectors are added except for some code vectors using an ordering property. For the codebook updating process, the codebook updating unit 140 Is performed by.
제 1 양자화부 (130-1)는 제 1 서브백터에 대해서 초기 코드북에 의해 백터 양자화된 제 1 코드 백터를 생성한다. 여기서 초기 코드북이 란, 트레이닝 백터의 통계적 특성을 이용하는 LBG 알고리즘을 통해 만들어진 코드북일 수 있으나, 본 발명은 이에 한정되지 아니한다. 제 1 코드 백터는 도 4 의 하단에 나타난 바와 같이 최초 성분 (W,) 내지 마지막 성분 (W4)이 존재할 수 있는데, 제 1 코드 백터의 마지막 성분 (W4)은 코드북 갱신부 (140)로 전달된다. 한편, 도 4 는 일 예에 해당할 뿐이고, 제 1 코드 백터의 마지막 성분은 네 번째 성분 (w4)뿐만 아니라, 여덟 번째 성분 ( 8)일 수도 있고, 열두 번째 성분 (w12)일 수도 있는 바,본 발명은 이에 한정되지 아니한다. The first quantization unit 130-1 generates a first code vector quantized vector by an initial codebook for the first sub vector. Here is the initial codebook, training It may be a codebook made through the LBG algorithm using the statistical characteristics of the vector, but the present invention is not limited thereto. A first codevector is the first component, as shown in the lower part of FIG. 4 (W,) to the end component (W 4), there may be present, the last component of the first code vector (W 4) is in the codebook updating unit 140 Delivered. On the other hand, Figure 4 is only one example, the last component of the first code vector may be not only the fourth component (w 4 ), but also the eighth component ( 8 ), may be the twelfth component (w 12 ) Bar, the present invention is not limited thereto.
코드북 갱신부 (140)는 제 1 코드백터의 마지막 성분 (W4)을 이용하여, 제 2 서브백터를 위한 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거한다. 여기서 우선 상기 코드북은 제 1 서브백터를 위한 코드북과 마찬가지로 LBG 알고리즘을 통해 생성된 코드북일 수 있다. The codebook updater 140 removes one or more surplus code vectors from the codebook for the second subvector, using the last component W 4 of the first codevector. In this case, the codebook may be a codebook generated through the LBG algorithm like the codebook for the first subvector.
한편, 도 4 는 본 발명에 따른 코드북 갱신 개념을 설명하기 위한 도면이다. 도 4 를 참조하면, 오른쪽에 제 2 서브백터를 위한 코드북이 존재하는데, 제 2 서브백터는 앞서 설명 한 바와 같이, 5 번째 선형 -예측 변환 계수 (W5)부터 8 번째 선형 -예측 변환 계수 (W8)까지를 포함하는 백터이다. 앞서 설명한 순서화 성질에 따르면 5 번째 선형 -예측 변환 계수는, 4 번째 선형 -예측 변환 계수 (W4) 보다 클 수 밖에 없다. 이 러한 순서화 성질은 양자화된 결과도 마찬가지 이기 때문에 , 5 번째 선형 -예측 변환 계수에 대응하는 제 2 서브백터 의 코드북의 최초의 성분 (w5)는 제 1 서브백터의 코드북의 마지막 성분 (W4) 보다 클 수 밖에 없다. 이 러한 순서화 성 질에 맞지 않는 코드 백터들 (즉, 최초 성분이 제 1 서브백터의 코드북의 마지막 성분 (W4) 보다 크지 않은 코드 백터들)이 잉 여 코드 백터들에 해당할 수 있다. 이러한 잉 여 코드 백터들은 제 1 서브백터의 코드북으로부터 제외시 키는 것이다. 코드북에 포함된 코드 백터들은 오름차순으로 정 렬될 수 있는데, 잉여 코드 백터들이 총 M 개이고, 초기 코드북의 코드북 인덱스가 1 인 경우, 잉 여 코드 백터들은 1=1 부터 1=M 까지 연속된 코드 백터들일 수 있다. 잉여 코드 백터들이 제외되고 추가 코드 백터들이 추가되면, 오름차순으로 재정 렬을 한 후 새로운 인덱스 (예 : m)가 부여될 수 있는데, 종래 1=M+1 에 해당하는 코드 백터에 m=l 이라는 인텍스가 부가될 수 있다. 재정렬 및 인덱스 부여에 대해서는 추후 추가 코드 백터들이 추가된 이후에 다시 설명하고자 한다. 4 is a diagram for explaining a codebook update concept according to the present invention. Referring to FIG. 4, there is a codebook for a second subvector on the right side, which, as described above, has a fifth linear-predictive transform coefficient (W 5 ) to an eighth linear-predictive transform coefficient ( W 8 ) up to and including vectors. According to the ordering property described above, the fifth linear-predictive transform coefficient must be larger than the fourth linear-predictive transform coefficient (W 4 ). Since this ordering property is the same as the quantized result, the first component (w 5) of the codebook of the second subvector corresponding to the fifth linear-predictive transform coefficient is the last component (W 4 ) of the codebook of the first subvector. It must be greater than). Code vectors that do not meet this ordering quality (ie, code whose first component is not greater than the last component (W 4 ) of the codebook of the first subvector) Vectors may correspond to redundant code vectors. Such surplus code vectors are excluded from the codebook of the first subvector. The code vectors included in the codebook can be sorted in ascending order. If there are a total of M surplus code vectors and the codebook index of the initial codebook is 1, the surplus code vectors are consecutive code vectors from 1 = 1 to 1 = M. Can be. If redundant code vectors are excluded and additional code vectors are added, they can be rearranged in ascending order and given a new index (e.g. m), where m = l is assigned to the code vector corresponding to 1 = M + 1. May be added. Reordering and indexing will be described later after additional code vectors have been added.
그런 다음 코드북 갱신부 (140)는 제 1 코드 백터의 마지막 성분을 이용하여, 제 1 서브백터를 위한 코드북에 하나 이상의 추가 코드 백터를 부가한다. 여기서 추가 코드 백터는, 양자화 에러가 다른 코드 백터보다 크지 않은 코드 백터 이다. 추가 코드 백터를 획득하는 과정은 다음과 같다.  The codebook updater 140 then adds one or more additional codevectors to the codebook for the first subvector, using the last component of the first codevector. The additional code vector here is a code vector whose quantization error is not greater than other code vectors. The process of acquiring an additional code vector is as follows.
제 1 코드 백터의 마지막 성분을 이용하여 최초 성분 예측값을 획득한다.  An initial component prediction value is obtained using the last component of the first code vector.
[수학식 5]  [Equation 5]
WiPred = Wi-i + Δ, (i= 5, 9, 13) W i P red = W i- i + Δ, (i = 5, 9, 13)
여기서, Wipred 는 최초 성분 예측값, Λ 은 제 1 코드 백터의 마지막 성분, Δ,는 증가 평균 (gradient mean) 여기서 Wipred 및 간의 에러는 가우시안 분포를 갖는다. 상기 증가 평균은 다음 수학식에 의해 산출될 수 있으나, 본 발명은 이에 한정되지 아니한다. Here, Wi pred is the first component predicted value, Λ is the last component of the first code vector, Δ, is a gradient mean where Wi pred and the liver have a Gaussian distribution. The increase average may be calculated by the following equation, but the present invention is not limited thereto.
[수학식 6]  [Equation 6]
Δ,. = avg(Wi-2 - Wi-3 , Wi - Wi-2 , Wi - W;-1 ) (i= 4, 8, 12) Δ,는 증가 평균 (gradient mean), avg()는 평균 값 Δ ,. = avg (W i-2 -W i-3, W i -W i-2 , Wi-W ; -1 ) (i = 4, 8, 12) Δ, is the gradient mean, avg () Is the average value
코드북 갱신부 (140)는 상기 제 1 성분 예측값 (Wipred)을 이용하여 제 2 서브백터를 위한 코드북으로부터 둘 이상의 후보 코드 백터들을 선택한다. 즉, 상기 코드북에 포함된 코드 백터들 중에서, 그돌의 최초 성분과, 상기 최초 성분 예측값 (Wipred)의 차이가 가장 작은 코드 백터들이 상기 후보 코드 백터들이 될 수 있다. The codebook updater 140 selects two or more candidate codevectors from a codebook for a second subvector using the first component prediction value Wi pred . That is, among the code vectors included in the codebook, the code vectors having the smallest difference between the initial component of the stone and the first component prediction value Wi pred may be the candidate code vectors.
코드북 갱신부 (140)는 상기 후보 코드 백터들을 내삽 (interpolating)함 8 으로써 , 임시 코드 백터를 생성한다. 내삽의 방식은 종래의 공지 기술인 여 러 가지 방식 이 적용될 수 있다. 그 일 예로 후보 백터 들이 둘일 경우, 다음 수학식에 나타난 방식을 통해 내삽을 수행할 수 있다.  The codebook updater 140 generates a temporary code vector by interpolating the candidate code vectors. As the interpolation method, various methods known in the art may be applied. For example, when there are two candidate vectors, interpolation may be performed by the method shown in the following equation.
[수학식 7]  [Equation 7]
CBm EXT= (am*CBk + bm*CBk+M+i)/2 CB m EXT = (am * CB k + b m * CB k + M + i) / 2
CBm EXT 는 추가 코드 백터 (k<m<k+M+l), CBk 및 CBk+M+1 는 후보 코드 백터, CB m EXT is an additional code vector (k <m <k + M + l), CB k and CB k + M + 1 are candidate code vectors,
m 은 갱신 코드북에 새롭게 부여된 코드북 인덱스,  m is the codebook index newly assigned to the update codebook,
M 은 추가 코드 백터의 총 개수,  M is the total number of additional code vectors,
am, bm는 가중치 앞서 설명한 바와 같이, 제외된 잉 여 코드 백터 다음의 코드 백터에 코드북 인텍스 (m=l)이 부여되고, M 개의 추가 코드 백터를 생성할 경우, 후보 코드 백터들은 m=k 및 m=k+M+l 의 인덱스를 부여하고, 새롭게 추가되는 M 개의 추가 코드 백터들 (CBk+1 내지 CBk+M)에는 m=k+l~ m=k+M 이 부여될 수 있다. a m and b m are weights As described above, if a codebook index (m = l) is assigned to a codevector following an excluded redundant codevector, and when generating M additional codevectors, the candidate codevectors are m = k and m = k + M An index of + l is added, and m = k + l to m = k + M may be given to newly added M additional code vectors CB k + 1 to CB k + M.
제외된 잉여 코드 백터들의 개수 및 추가 코드 백터들의 개수가 모두 M 개로 동일한 경우, 종래의 초기 코드북의 크기 및 갱신 코드북의 크기는 L 개로 동일하게 유지될 수 있다. 따라서 코드북 인덱스를 전송하기 위해서 추가 비트가 소요될 필요가 없다. 아을러, 백터 양자화의 대상의 되는 타깃 코드 백터와 더욱 유사한 추가 코드 백터들을 코드북에 추가함으로써 , 양자화 에 러를 최소화하여 음질을 향상시킬 수 있는 효과가 있다.  If both the number of redundant code vectors excluded and the number of additional code vectors are equal to M, the size of the conventional initial codebook and the size of the update codebook may be kept equal to L. Therefore, no additional bit is required to transmit the codebook index. In addition, by adding additional code vectors, which are more similar to the target code vector to be subjected to vector quantization, to the codebook, there is an effect of minimizing the quantization error and improving the sound quality.
다시 도 1 을 참조하면, 코드북 갱신부 (140)는 상기와 같은 과정을 통해 초기 코드북에서 잉 여 코드 백터들올 제외하고 추가 코드 백터들을 부가한 갱신 코드북을 제 2 양자화부 (130-2)에 제공한다.  Referring back to FIG. 1, the codebook updater 140 adds an update codebook to which the additional code vectors are added to the second quantizer 130-2, except for the surplus code vectors from the initial codebook. to provide.
제 2 양자화부 (130-2)는 제 2 서브 백터를 위한 갱신 코드북을 이용하여 제 2 서브백터를 백터 양자화 함으로써, 제 2 코드 백터를 획득한다. 이 제 2 코드 백터의 마지막 성분은, 제 1 양자화부 (130-1)에서와 마찬가지로, 코드북 갱신부 (140)에 전달되고, 코드북 갱신부는 제 2 코드 백터의 마지막 성분을 근거로 하여, 제 N 서브 백터를 위한 코드북을 갱신하여 제 N 양자화부 (130- N)에 전달한다. 그러면, 제 N 양자화부 (130-N)는 코드북 갱신부 (140)에 의해 제공된 갱신 코드북을 이용하여 제 N 서브백터를 백터양자화함으로써, 제 N 코드 백터를 획득한다. The second quantization unit 130-2 obtains the second code vector by vector quantizing the second sub vector using the update codebook for the second sub vector. The last component of this second code vector is transmitted to the codebook updating unit 140 as in the first quantization unit 130-1, and the codebook updating unit is based on the last component of the second code vector, and the Nth code vector is used. The codebook for the subvector is updated and transmitted to the N-th quantizer 130-N. Then, the N-th quantizer 130-N quantizes the N-th subvector using the update codebook provided by the codebook updater 140 to obtain an N-th code vector.
제 1 양자화부 (130-1) 내지 제 N 양자화부 (130-N)에 의해 생성된 제 1 코드 백터에 해당하는 제 1 코드북 인덱스, 내지 제 N 코드 백터에 해당하는 제 N 코드북 인텍스는 멀티플렉서 (150)에 의해 다중화되어 비트스트림에 포함되고, 이 비트스트림은 디코더에 전송된다.  The first codebook index corresponding to the first code vector generated by the first quantization unit 130-1 to the Nth quantization unit 130 -N, and the N th codebook index corresponding to the N th code vector are multiplexers ( Multiplexed by 150) and included in the bitstream, which is transmitted to the decoder.
또는, 제 1 코드북 인덱스 내지 제 N 코드북 인덱스 대신에, 제 1 코드 백터에 대웅하는 제 1 코드북 인덱스의 후보값들, 내지 제 2 코드 백터에 대웅하는 제 N 코드북 인덱스의 후보값들이 1 단계 양자화부의 출력으로서, 2 단계 양자화부 (160:미도시)의 입 력 이 될 수 있다. 2 단계 양자화부 (160:미도시)는 상기 후보값들을 근거로 하여 멀티 스테이지 백터 양자화 (MSVQ: Multi-Stage Vector Quantization)이 수행할 수 있다. 즉, 첫번째 단계 (스테이지)의 백터와 두번째 단계의 백터를 합하여 작은 왜곡을 갖는 인덱스를 각각 선택하는 것이다.  Or, instead of the first codebook index or the Nth codebook index, the candidate values of the first codebook index for the first code vector, and the candidate values of the Nth codebook index for the second code vector are assigned to the first stage quantization unit. As an output, it may be an input of a two-step quantization unit 160 (not shown). The second stage quantization unit 160 (not shown) may perform multi-stage vector quantization (MSVQ) based on the candidate values. That is, the vector of the first stage (stage) and the vector of the second stage are summed to select indices with small distortion, respectively.
이때 2 단계 양자화부 (160: 미도시)는 서브백터를 다시 분할하여, 예를 들어, {WiWsWsW Ws}, {W6W7W8W9W10}, {WHW JWUWMWBW^}으로 분할하거나,
Figure imgf000020_0001
및 {W ^OWHWUWUWMW W^으로 분할하여 두번째 단계의 양자화를 수행할 수 있으나, 본 발명은 이에 한정되지 아니한다. 예측선택부 (170:미도시)를 더 포함할 수 있는데, 예측선택부 (170: 미도시)는 선형 -예측 변환 계수에 대해서 프레임간의 상관성을 산출한다. 음성신호의 경우 단구간에서는 대체적으로 스테이셔너리한 특징을 가지므로, 프레임간의 상관성 이 높다. 이 때 프레임간 상관성을 이용하기 위하여 오토- 리그레시브 (auto-regressive) 예측 기법 이 사용될 수 있으나, 본 발명은 이에 한정되지 아니한다.
At this time, the second quantization unit 160 (not shown) divides the sub vector again, for example, {WiWsWsW Ws}, {W 6 W 7 W 8 W 9 W 10 }, {WHW JWUWMWBW ^},
Figure imgf000020_0001
And {W ^ OWHWUWUWMW W ^ may be performed to perform the second step quantization, but the present invention is not limited thereto. The prediction selector 170 (not shown) may further include a prediction selector 170 (not shown) to calculate a correlation between frames with respect to the linear-prediction transform coefficient. In the case of an audio signal, since it is generally stationary in a short section, the correlation between frames is high. In this case, an auto-regressive prediction technique may be used to use the inter-frame correlation, but the present invention is not limited thereto.
[수학식 8]  [Equation 8]
여기에서 fi , 와 는 각각 예측된 선형 -예측 변환 계수, 이 전 프레임의 원본 선형 -예측 변환 계수, 이 전 프레임의 양자화된 선형 -예측 변환 계수이고, " 는 예측 계수이다. Where fi , and are respectively predicted linear-predictive transform coefficients, original linear-predictive transform coefficients of the previous frame, quantized linear-predictive transform coefficients of the previous frame, and "are prediction coefficients.
단구간에서 음성 신호가 빠르게 변할 경우, 선형 -예측 변환 계수들은 예측 범위를 벗어난다. 따라서 예측선택부 (150)는 예측 범위에 있을 경우와 없을 경우를 전부 양자화 할 수 있도록 양자화기를 설계한다. 두 가지 양자화 기법은 동시에 사용되며, 작은 MSE 왜곡을 갖는 양자화기가 선택된다.  If the speech signal changes rapidly in the short term, the linear-predictive transform coefficients are outside the prediction range. Therefore, the prediction selector 150 designs a quantizer so that all the cases with and without the prediction range can be quantized. Both quantization techniques are used at the same time and quantizers with small MSE distortion are selected.
[수학식 9]  [Equation 9]
£ = ±[^ -/ £ = ± [^-/
,=0 (5) 여기에서 P 는 16 개의 선형 -예측 변환 계수를 나타내고, 와 는 원본 선형 -예측 변환 계수와 양자화된 선형 -예측 변환 계수를 나타낸다. 즉, 예측선택부 (170)는 프레임간 상관성 이 높은 경우, 이전 프레임의 변환 계수를 이용하여 예측을 제외한 값이 양자화된 결과를 출력하고, 프레임간의 상관성 이 적은 경우, 원본 변환 계수에 대해서 양자화된 결과를 출력한다. , = 0 (5) where P represents 16 linear-predictive transform coefficients, and and represent original linear-predictive transform coefficients and quantized linear-predictive transform coefficients. That is, when the interframe correlation is high, the prediction selector 170 outputs a quantized result except for the prediction by using the transform coefficient of the previous frame. When the interframe correlation is low, the prediction selector 170 quantizes the original transform coefficient. Output the result.
도 5 는 본 발명의 제 1 실시 예에 따른 오디오 신호 처 리 장치 중 디코더의 구성올 보여주는 도면이다. 도 5 를 참조하면, 디코더 (200)는, 제 1 역양자화부 (210-1), 제 2 역 양자화부 (210-2) 및 코드북 갱신부 (220)를 포함하고, 제 N 역양자화부 (210-N), 백터 병합부 (230), 및 선형 예측 합성부 (240)를 더 포함할 수 있다.  5 is a block diagram illustrating a decoder of an audio signal processing apparatus according to a first embodiment of the present invention. Referring to FIG. 5, the decoder 200 includes a first inverse quantizer 210-1, a second inverse quantizer 210-2, and a codebook updater 220, and includes an Nth inverse quantizer ( 210 -N), the vector merger 230, and the linear prediction synthesizer 240 may be further included.
우선 제 1 역 양자화부 (210-1)는 제 1 코드 백터에 대웅 하는 제 1 코드북 인덱스를 수신하여, 초기 코드북을 탐색함으로써, 제 1 코드북 인덱스에 대웅하는 제 1 코드 백터를 획득한다. 예를 들어, 도 4 에서 제 1 코드북 인덱스가 1=2 인 경우, 초기 코드북에 포함된 복수의 코드 백터들 중에서 1=2 에 대웅하는 코드 백터를 제 1 코드 백터로서 선택하는 것이다. 제 1 코드 백터는 백터 병합부 (230)에 전달되고, 특히 제 1 코드 백터의 마지막 성분 (예:  First, the first inverse quantization unit 210-1 receives a first codebook index based on a first code vector and searches an initial codebook to obtain a first code vector based on a first codebook index. For example, in the case where the first codebook index is 1 = 2 in FIG. 4, a code vector of 1 = 2 is selected as the first code vector from among a plurality of code vectors included in the initial codebook. The first code vector is passed to the vector merger 230, in particular the last component of the first code vector (eg,
4)은 코드북 갱신부 (220)에 전달된다.  4) is transmitted to the codebook updating unit 220.
코드북 갱신부 (220)는 제 1 코드 백터의 마지막 성분을 이용하여, 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉여 코드 백터를 제거한다. 또한, 제 1 코드 백터의 마지막 성분을 이용하여, 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써, 제 2 서브 백터를 위한 갱신 코드북을 생성한다. 코드북 갱신부 (220)의 구체적 인 동작은 앞서 도 1 과 함께 설명된 코드북 갱신부 (140)와 거의 유사하므로, 그 구체적 인 설명은 생략하고자 한다. The codebook updater 220 removes one or more surplus code vectors from the initial codebook for the second subvector using the last component of the first code vector. In addition, using the last component of the first code vector, one or more additional code vectors are added to the initial codebook to generate an update codebook for the second sub vector. The detailed operation of the codebook updating unit 220 is described above with reference to FIG. 1. Since it is almost similar to the codebook updater 140 described, a detailed description thereof will be omitted.
코드북 갱신부 (220)는 제 2 코드 백터의 마지막 성분을 이용하여, 제 3 서브 백터를 위한 갱신 코드북을 생성하고, 제 N-1 코드 백터의 마지막 성분을 이용하여, 제 N 서브 백터를 위한 갱신 코드북을 생성한다.  The codebook updating unit 220 generates an update codebook for the third sub vector using the last component of the second code vector, and updates the N sub vector using the last component of the N-1 code vector. Create a codebook.
제 2 역양자화부 (210-2)는 제 2 코드북 인덱스를 수신하고, 갱신 코드북에 포함된 다수의 코드백터들 중에서, 제 2 코드북 인덱스에 대웅하는 코드 백터를 제 2 코드 백터로서 결정한다. 제 2 코드 백터는 백터 병합부 (230)에 전달되고, 이중 제 2 코드 백터의 마지막 성분은 코드북 갱신부 (220)에 전달된다.  The second inverse quantization unit 210-2 receives the second codebook index and determines, as a second code vector, a code vector for the second codebook index from among a plurality of code vectors included in the update codebook. The second code vector is passed to the vector merger 230, of which the last component of the second code vector is passed to the codebook updater 220.
제 N 역 양자화부 (210-N)는 코드북 갱신부 (220)에 의해 생성된 제 N 서브백터를 위한 갱신 코드북을 탐색함으로써, 제 N 코드북 인텍스에 대웅하는 제 N 코드 백터를 추출하여 백터 병합부 (230)에 전달한다.  The N-th inverse quantizer 210-N searches for an update codebook for the N-th subvector generated by the codebook updater 220, thereby extracting an N-th code vector for the N-th codebook index and concatenating the vector merger. Forward to 230.
백터 병합부 (230)는 제 1 코드 백터, 제 2 코드 백터 내지 제 N 코드 백터를 정해진 배열대로 병합함으로써, 역-양자화된 선형 -예측 변환 계수를 획득하여 이를 선형 예측 합성부 (240)에 전달한다.  The vector merging unit 230 merges the first code vector, the second code vector, and the N-th code vector in a predetermined arrangement to obtain a de-quantized linear-prediction transform coefficient and transfer it to the linear prediction synthesis unit 240. do.
선형 예측 합성부 (240)는 선형 -예측 변환 계수에 대해서 선형 -예측 분석의 역과정 인 선형 -예측 (LPC) 합성을 수행함으로써 , 오디오 신호를 생성한다.  The linear prediction synthesis unit 240 generates an audio signal by performing linear-prediction (LPC) synthesis, which is a reverse process of the linear-prediction analysis, on the linear-prediction transform coefficients.
도 6 은 본 발명의 제 2 실시예에 따른 오디오 신호 처리 장치 중 인코더의 구성을 보여주는 도면이고, 도 7 는 본 발명에 따른 배열, 참조 서브백터 및 비 -참조 서브백터의 개념을 설명하기 위한 도면이고, 도 8 내지 도 12 는 배열, 참조 서브백터, 비 -참조 서브백터의 제 1 예 내지 제 5 예이다ᅳ 도 13 은 본 발명의 제 2 실시 예에 따른 오디오 신호 처리 장치 중 디코더의 구성을 보여주는 도면이다. 6 is a view showing the configuration of an encoder in an audio signal processing apparatus according to a second embodiment of the present invention, and FIG. 7 is a view for explaining the concept of an arrangement, a reference subvector and a non-reference subvector according to the present invention. 8 to FIG. 12 shows first to fifth examples of an arrangement, a reference subvector, and a non-reference subvector. FIG. 13 is a diagram illustrating a decoder of an audio signal processing apparatus according to a second embodiment of the present invention.
우선, 도 6 을 참조하면, 제 2 실시 예에 따른 인코더 (300)는 제 1 독립 양자화부 (330-1), 제 1 종속 양자화부 (340-1) 및 적웅코드북 생성부 (350)를 포함하고, 선형 예측 분석부 (310), 배열부 (320), 제 N 독립 양자화부 (330-N), 제 M 독립 양자화부 (340-M)를 더 포함할 수 있다.  First, referring to FIG. 6, the encoder 300 according to the second embodiment includes a first independent quantization unit 330-1, a first dependent quantization unit 340-1, and a red-eye codebook generation unit 350. The linear prediction analyzer 310, the array 320, the N-th independent quantizer 330 -N, and the M-th independent quantizer 340 -M may be further included.
선형 예측 분석부 (310)는 앞서 도 1 과 함께 설명한 선형 예측 분석부 (110)와 동일한 기능을 수행하므로, 그 구체적 인 설명은 생략하고자 한다.  Since the linear prediction analyzer 310 performs the same function as the linear prediction analyzer 110 described above with reference to FIG. 1, a detailed description thereof will be omitted.
배열부 (320)는 선형 예측 분석부 (310)로부터 수신된 복수 개의 선형 -예측 변환 계수에 대해서, 오름차순의 배열이 아닌 정해진 배열에 따라서 (재)배열한다. 도 7 의 (A)를 참조하면, 선형 -예측 변환 계수가 총 16 개일 때, 첫 번째 계수 (W0부터 마지막 계수 (W16)까지의 오름차순의 배열이 나타나 있다. 한편, 도 7 의 (B)를 참조하면, 오른차순의 배열이 아닌 정해진 배열이 나타나 있다. 여기서 정해진 배열은, 순서화 성질에 기초하여, 참조 서브백터 (또는 참조 코드 백터)의 각 성분을 비 -참조 서브백터 (또는 비 -참조 코드 백터)의 최대값 또는 최소값을 취할 수 있는 배열인 바, 추후 도 8 내지 도 12 를 참조하면서 총 5 개의 예에 대해서 설명하지만, 본 발명은 특정 배열에 한정되지 아니한다. 배열부 (320)은 상기와 같이 정해진 배열에 따른 타깃 백터를 하나 이상의 참조 서브백터 (제 1 참조 서브백터부터 제 N 참조 서브백터), 및 하나 이상의 비 -참조 서브백터 (제 1 비 -참조 서브백터부터 제 M 참조 서브백터)로 분할한다. 여기서 참조 서브백터 란, 다른 서브백터 (비 -참조 서브백터)의 적응 코드북을 생성하는 데 있어서 참조되는 서브백터를 의미하고, 비 -참조 서브백터 란, 다른 서브백터의 적웅 코드북을 생성하는데 참조되지 않는 서브백터를 의미한다. 각 배열에 따라서 참조 서브백터와 비 -참조 서브백터의 각 개수 및 위치가 다를 수 있다. The arranging unit 320 (re) arranges the plurality of linear-prediction transform coefficients received from the linear prediction analyzing unit 310 according to a predetermined arrangement rather than an ascending order. Referring to (A) of 7, line - of a prediction transform coefficients shown are arranged in ascending order of a total of up to 16 days time, the first factor (last factor from W0 (W 16) On the other hand, FIG. 7 (B) Note that a given array is shown, rather than an array in right order, where each element of the reference subvector (or reference code vector) is non-referenced subvector (or non-referenced) based on the ordering nature. Since it is an array that can take the maximum value or the minimum value of the code vector), a total of five examples will be described below with reference to FIGS. 8 to 12, but the present invention is not limited to the specific arrangement. The arranging unit 320 stores the target vector according to the above-described arrangement into at least one reference subvector (from the first reference subvector to the Nth reference subvector), and at least one non-reference subvector (first non-reference sub). Vector to Mth reference subvectors). Here, the reference subvector refers to a subvector referred to in generating an adaptive codebook of another subvector (non-reference subvector), and a non-reference subvector is referred to to generate a decoded codebook of another subvector. Does not mean subvectors. Each array can have a different number and location of reference and non-reference subvectors.
우선 도 8 의 (A)를 살펴보면, 제 1 예는 선형 -예측 변환 계수가 총 16 개일 때, 배열의 일 예가 나타나 있고, 도 9 의 (A) 및 (B)를 살펴보면, 제 2 예는 총 8 개의 계수들이 존재할 때, 배열의 일 예, 도 10 의 (A) 및 (B)를 살펴보면, 제 3 예는 총 9 개의 계수들이 존재할 때, 배열의 일 예, 도 11 의 (A) 및 (B)는 12 개일 때, 도 12 의 (A) 및 (B)는 15 개일 때 배열의 예가 나타나 있다.  First, referring to FIG. 8A, when the first example has 16 linear-predictive transform coefficients, an example of the array is shown. Referring to FIGS. 9A and 9B, the second example is a total When there are eight coefficients, look at an example of the arrangement, (A) and (B) of FIG. 10, the third example is an example of the arrangement, when there are a total of nine coefficients, (A) and ( An example of the arrangement is shown when B) is twelve and FIG. 12 (A) and (B) are fifteen.
하나 이상의 참조 서브백터들은 독립 양자화부 (330:미도시) (제 1 독립 내지 제 N 독립 양자화부 (330-N))에 전달되고, 하나 이상의 비 -참조 서브백터들은 각각 종속 양자화부 (340:미도시 )(제 1 종속 양자화부 (340-1) 내지 제 M 종속 양자화부 (340-M)에 전달된다. 독립 양자화부는 다른 서브백터의 양자화된 결과와 상관없이 양자화하고, 종속 양자화부는 다른 서브백터의 양자화된 결과 (즉, 참조 코드 백터들)를 이용하여 양자화한다. 제 1 독립 양자화부 (330-1) 내지 제 N 독립 양자화부 (330-N)는 초기 코드북을 이용하여 제 1 참조 서브백터 내지 제 N 참조 서브백터를 양자화함으로써 , 제 1 참조 코드 백터 내지 제 N 참조 코드 백터를 생성한다. 여기서 초기 코드북이란, 트레이닝 백터의 통계적 특성을 이용하는 LBG 알고리즘을 통해 만들어진 코드북일 수 있으나, 본 발명은 이에 한정되지 아니한다. 그런 다음 제 1 참조 코드 백터 내지 제 N 참조 코드 백터 중 두 개 이상의 성분을 최소값 및 최대값으로서 적웅코드북 생성부 (350)에 전달된다. 도 8 의 (A)을 참조하면, 우선, 제 1 비 -참조 서브백터는 W4부터 W7까지 구성됨을 알 수 있다. 따라서 제 1 비 -참조 서브백터는 앞서 수학식 3 에서 설명한 순서화 성질에 따르면, 제 1 참조 서브백터가 양자화된 결과인 제 1 참조 코드 백터의 마지막 이전 성분 (w3)보다는 크고, 마지막 성분 (w8)보다는 작은 값을 갖는다. 즉, 마지막 이 전 성분 (w3)이 제 1 비 -참조 서브백터의 최소값이 되고, 마지막 성분 (W8)이 제 1 비 참조 서브백터의 최대값이 되는 것이다. One or more reference subvectors are passed to an independent quantizer 330 (not shown) (first independent to Nth independent quantizer 330 -N), and one or more non-reference subvectors are each dependent quantizer 340: (Not shown) (the first dependent quantizer 340-1 to the M-th dependent quantizer 340-M) The independent quantizer is quantized regardless of the quantized result of the other subvectors, and the dependent quantizer is the other sub Quantize using the quantized result of the vector (ie, reference code vectors). The first independent quantization unit 330-1 to the Nth independent quantization unit 330 -N quantize the first reference subvector to the Nth reference subvector using an initial codebook, thereby providing the first reference code vector to Nth. Create a reference code vector. Here, the initial codebook may be a codebook made through the LBG algorithm using statistical characteristics of the training vector, but the present invention is not limited thereto. Then, two or more components of the first reference code vector to the Nth reference code vector are transmitted to the red horn codebook generation unit 350 as a minimum value and a maximum value. Referring to FIG. 8A, first, it can be seen that the first non-reference subvector is configured from W 4 to W 7 . Thus, according to the ordering property described in Equation 3 above, the first non-reference subvector is larger than the last previous component (w 3 ) of the first reference code vector, which is the result of the quantization of the first reference subvector, and the last component (w). Has a smaller value than 8 ). That is, the last previous component (w 3 ) becomes the minimum value of the first non-reference subvector, and the last component (W 8 ) is the maximum value of the first non-reference subvector.
도 8 의 (B)는 제 2 비 -참조 서브백터의 최소값 및 최대값 관계를 나타내고 있다. 제 2 비 -참조 서브백터는 W9 부터 W12 까지를 포함하므로, 순서화 성질에 따르면, 제 1 참조 코드 백터의 마지막 성분 (W8)보다는 크고, 제 2 참조 코드 백터의 첫번째 성분 (W13)보다 작아야 하므로, 각각을 최소값 및 최대값으로 결정할 수 있다. 도 9 에 나타난 제 2 예의 제 1 비 -참조 서브백터는, 제 1 예의 제 1 비- 참조 서브백터의 경우와 마찬가지로, 최소값이 제 1 참조 코드 백터의 마지막 이전 성분 (W3)이고, 최 대값은 마지막 성분 (W8)이다. FIG. 8B shows the relationship between the minimum value and the maximum value of the second non-referenced subvector. Since the second non-reference subvector includes W 9 through W 12 , according to the ordering nature, it is larger than the last component (W 8 ) of the first reference code vector, and the first component (W 13 ) of the second reference code vector (W 13 ). Since they must be smaller, each can be determined as the minimum and maximum values. In the first non-reference subvector of the second example shown in FIG. 9, as in the case of the first non-reference subvector of the first example, the minimum value is the last previous component (W 3 ) of the first reference code vector and the maximum value. Is the last component (W 8 ).
도 10 에 나타난 제 3 예의 경우에도, 제 1 예 및 제 2 예의 제 1 비 -참조 서브백터의 경우와 마찬가지로, 최소값이 제 1 참조 코드 백터의 마지막 이 전 성분 (w2)이고, 최대값은 마지막 성분 (w6)이다. Also in the case of the third example shown in FIG. 10, as in the case of the first non-reference subvector of the first example and the second example, the minimum value is the last previous component (w 2 ) of the first reference code vector, and the maximum value is The last component (w 6 ).
도 11 에 나타난 제 4 예의 경우에서도, 도 11 의 (C)를 살펴보면, 제 1 비 -참조 서브백터 (W3~W5)는, 제 1 예, 제 2 예, 제 3 예의 제 1 비 -참조 서브백터의 경우와 마찬가지로, 최소값이 제 1 참조 코드 백터의 마지막 이전 성분 (W2)이고, 최대값은 제 1 참조 코드 백터의 마지막 성분 (w6)이다. Also in the case of the fourth example shown in FIG. 11, referring to FIG. 11C, the first non-reference subvectors W 3 to W 5 are the first ratios of the first, second and third examples. As with the reference subvector, the minimum value is the last previous component (W 2 ) of the first reference code vector and the maximum value is the last component (w 6 ) of the first reference code vector.
도 11 의 (D)를 살펴보면, 제 2 비 -참조 서브백터 (W7~W9)는, 제 1 예에서의 제 2 비 -참조 서브백터와 마찬가지로, 제 1 참조 코드 백터의 마지막 성분 (W6)이 최소값이고, 제 2 참조 코드 백터의 첫번째 성분 (W10)이 최대값이 된다. Referring to FIG. 11D, the second non-reference subvectors W 7 to W 9 are, like the second non-reference subvectors in the first example, the last component W of the first reference code vector. 6 ) is the minimum value, and the first component W 10 of the second reference code vector is the maximum value.
도 12 에 나타난 제 5 예의 경우 중 제 1 비 -참조 서브백터 (W3~W5)는 제 1 예, 제 2 예, 제 3 예, 및 제 4 의 제 1 비 -참조 서브백터의 경우와 마찬가지로, 최소값이 제 1 참조 코드 백터의 마지막 이 전 성분 (W2)이고, 최대값은 제 1 참조 코드 백터의 마지막 성분 (W6)이다. In the case of the fifth example shown in FIG. 12, the first non-reference subvectors W 3 to W 5 are the same as those of the first example, the second example, the third example, and the fourth non-reference subvector. Similarly, the minimum value is the last previous component (W 2 ) of the first reference code vector, and the maximum value is the last component (W 6 ) of the first reference code vector.
제 5 예의 제 2 비 -참조 서브백터 (W9~WU)는 계 2 참조 코드 백터의 마지막 이전 성분 (W8)이고, 최 대값은 제 2 참조 코드 백터의 마지막 성분 (Wl2)이다. 다시 도 6 을 참조하면, 이와 같이 독립 양자화부 (330)는 하나 이상의 참조 서브백터에 대해서 양자화를 수행한 결과인 하나 이상의 참조 코드 백터 중에서 둘 이상의 성분을 해당 비 -참조 서브백터의 최소값 및 최대값으로서 결정하고, 최소값 및 최대값을 적웅코드북 생성부 (350)에 전달한다. 비 -참조 서브백터별 최소값 및 최대값을 결정하는 방식은 도 8 내지 도 12 와 함께 총 계 1 예 내지 제 5 예에 대해서 설명한 바와 같다. 예컨대, 도 8 에 도시된 제 1 예의 경우에, 제 1 참조 코드백터의 마지막 이 전 성분 및 마지막 성분을 제 1 비 -참조 서브백터의 최소값 및 최대값으로 각각 전달하고, 제 1 참조 코드백터의 마지막 성분 및 제 2 참조 코드백터의 첫번째 성분을, 제 2 비 -참조 서브백터의 최소값 및 최 대값으로 전달하는 것이다, The second non-reference subvector W 9 -W U of the fifth example is the last previous component W 8 of the System 2 reference code vector, and the maximum value is the last component Wl 2 of the second reference code vector. Referring back to FIG. 6, the independent quantization unit 330 thus determines two or more components of one or more reference code vectors that are the result of performing quantization on one or more reference subvectors. The minimum value and the maximum value are transmitted to the red horn codebook generation unit 350. The method of determining the minimum value and the maximum value for each non-referenced subvector is as described with reference to FIGS. 8 to 12. For example, in the case of the first example shown in FIG. 8, the last previous component and the last component of the first reference codevector are passed as minimum and maximum values of the first non-reference subvector, respectively, The last component and the first component of the second reference codevector are passed as the minimum and maximum values of the second non-reference subvector.
적응코드북 생성부 (350)는 비 -참조 서브백터별 최소값 및 최 대값을 이용하여 해당 비 -참조 서브백터를 위한 적웅 코드북을 생성한다. 적웅 코드북을 생성하는 단계는 우선, LBG 알고리즘을 이용하여 해당 비 -참조 서브백터를 위한 초기 코드북을 생성하고, 이 초기 코드북을 정규화함으로써 정규화 코드북을 생성한다.  The adaptive codebook generation unit 350 generates a red-eye codebook for the corresponding non-reference subvector using the minimum and maximum values for each non-reference subvector. In the step of generating a homogen codebook, first, an initial codebook for the corresponding non-referenced subvector is generated by using the LBG algorithm, and a normalized codebook is generated by normalizing the initial codebook.
도 14 의 (A)는 정규화된 코드북의 일 예이고, 도 14 의 (B)는 적웅 코드북의 일 예이다. 도 14 는 지면의 한계로 인해서 2 차원 백테 Χι Χ2]를 예로 표시한 것이다. 코드북을 정규화시킴으로써, 도 14 의 (A)에 나타난 바와 같이, 각 성분의 값들의 범위가 일정하게 (0~1 또는 1~10)되도록 한다. 그런 다음, 적응코드북 생성부 (350)은 최소값 및 최대값을 상기 정규화된 코드북에 적용함으로써 , 적웅 코드북을 생성한다. 이때 다음 수학식 이 사용될 수 있다. 14A is an example of a normalized codebook, and FIG. 14B is an example of a red-eye codebook. 14 shows an example of a two-dimensional bag Χι Χ 2 ] due to the limitation of the ground. By normalizing the codebook, as shown in Fig. 14A, the range of values of each component is made constant (0-1 or 1-10). Then, the adaptive codebook generation unit 350 generates a red-eye codebook by applying the minimum value and the maximum value to the normalized codebook. At this time, the following equation may be used.
[수학식 10]  [Equation 10]
Codebookadap = (Max - Mix) (Codebookn + Min) Codebooka dap = (Max-Mix) (Codebook n + Min)
Codebookadap 은 적응 코드북, Codebookn 은 정규화된 코드북, Max 은 최대값, Mix 은 최소값 Codebooka d ap is the adaptive codebook, Codebook n is the normalized codebook, Max is the maximum, Mix is the minimum
이와 같이 비 -참조 서브백터를 양자화하기 위해서 , 최소값보다 작거나 최대값보다 큰 성분을 갖는 코드 백터는 리던던시에 해당한다. 따라서, 이러 한 리던던시를 제거하고 타깃 서브백터에 가까운 코드 백터들을 코드북에 포함시킴으로써, 비트수를 증가시키지 않으면서도 양자화 에 러를 최소화함으로써 , 음질을 향상시킬 수 있다.  In order to quantize non-reference subvectors in this manner, code vectors with components smaller than the minimum value or larger than the maximum value correspond to redundancy. Therefore, by removing such redundancy and including code vectors close to the target sub-vector in the codebook, the sound quality can be improved by minimizing the quantization error without increasing the number of bits.
상기와 같은 방법으로 생성된 적웅코드북 생성부 (350)에 의해서 적응 코드북는 종속 양자화부 (340)에 전달된다.  The adaptive codebook is delivered to the subordinate quantization unit 340 by the red-eye codebook generation unit 350 generated in the above manner.
다시 도 6 을 참조하면, 종속 양자화부 (340)는 적응 코드북을 이용하여 제 1 비 -참조 서브백터를 백터양자화함으로써, 하나 이상의 비 -참조 코드백터를 생성한다. 구체적으로, 제 1 종속 양자화부 (340-1)는 제 1 비 -참조 서브백터를 위한 적웅 코드북을 이용하여, 제 1 비 -참조 서브백터를 양자화함으로써, 제 1 비 -참조 코드백터를 생성하고, 제 M 종속 양자화부 (340-M)는 제 M 비 -참조 서브백터를 위한 적응 코드북을 이용하여 , 제 M 비 -참조 서브백터를 양자화함으로써, 제 1 비 -참조 코드백터를 생성한다. 이와 같이 독립 및 종속 양자화부 (330340)의 출력인 참조 코드백터에 대웅하는 참조 코드북 인덱스 및 비 -참조 코드백터에 대응하는 비 -참조 코드북 인텍스를 비트스트림에 포함된다. Referring back to FIG. 6, the dependent quantizer 340 vectorizes the first non-reference subvector using the adaptive codebook to generate one or more non-reference codevectors. Specifically, the first dependent quantization unit 340-1 generates a first non-reference codevector by quantizing the first non-reference subvector using a red-eye codebook for the first non-reference subvector. The M-th dependent quantization unit 340 -M generates a first non-reference codevector by quantizing the M non-reference subvector using an adaptive codebook for the M non-reference subvector. In this way, the bitstream includes a reference codebook index corresponding to the reference codevector, which is the output of the independent and dependent quantization units 330 and 340, and a non-reference codebook index corresponding to the non-reference codevector.
앞서 도 1 과 함께 설명한 제 1 실시예와 마찬가지로, 제 2 실시예에 따른 인코더 (300) 또한, 멀티플렉서, 제 2 단계 양자화부, 및 예측선택부를 더 포함할 수 있는데, 각 구성요소의 기능은 앞서 설명한 바와 거의 유사하므로, 그 구체적인 설명은 생략하고자 한다.  Like the first embodiment described above with reference to FIG. 1, the encoder 300 according to the second embodiment may further include a multiplexer, a second stage quantization unit, and a prediction selector, wherein the function of each component is described above. Since it is almost similar to the description, a detailed description thereof will be omitted.
본 발명에 따른 오디오 신호 처리 장치는 다양한 제품에 포함되어 이용될 수 있다. 이러한 제품은 크게 스탠드 얼론 (stand alone) 군과 포터블 (portable) 군으로 나뉠 수 있는데, 스탠드 얼론군은 티비, 모니터, 셋탑 박스 등을 포함할 수 있고, 포터블군은 PMP, 휴대폰, 네비게이션 등올 포함할 수 있다.  The audio signal processing apparatus according to the present invention can be included and used in various products. These products can be broadly divided into stand alone and portable groups, which can include TVs, monitors, and set-top boxes, and portable groups can include PMPs, mobile phones, and navigation. Can be.
도 15 는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계를 보여주는 도면이다. 우선 도 15 를 참조하면, 유무선 통신부 (510)는 유무선 통신 방식을 통해서 비트스트림을 수신한다. 구체적으로 유무선 통신부 (510)는 유선통신부 (510A), 적외선통신부 (510B), 블루투스부 (510C), 무선랜통신부 (510D) 중 하나 이상을 포함할 수 있다.  FIG. 15 is a diagram illustrating a relationship between products in which an audio signal processing device according to an embodiment of the present invention is implemented. FIG. First, referring to FIG. 15, the wired / wireless communication unit 510 receives a bitstream through a wired / wireless communication method. Specifically, the wired / wireless communication unit 510 may include at least one of a wired communication unit 510A, an infrared communication unit 510B, a Bluetooth unit 510C, and a wireless LAN communication unit 510D.
사용자 인증부는 (520)는 사용자 정보를 입력 받아서 사용자 인증을 수행하는 것으로서 지문인식부 (520A), 흥채인식부 (520B), 얼굴인식부 (520C), 및 음성인식부 (520D) 중 하나 이상을 포함할 수 있는데, 각각 지문, 흥채정보, 얼굴 윤곽 정보, 음성 정보를 입력받아서, 사용자 정보로 변환하고, 사용자 정보 및 기존 등록되어 있는 사용자 데이터와의 일치여부를 판단하여 사용자 인증을 수행할 수 있다. The user authentication unit 520 receives user information and performs user authentication. The user authentication unit 520 may include one or more of the fingerprint recognition unit 520A, the interest recognition unit 520B, the face recognition unit 520C, and the voice recognition unit 520D. Can include, respectively, fingerprint, interest information, facial contour information, voice information received, converted into user information, the user User authentication may be performed by determining whether the information matches the existing registered user data.
입 력부 (530)는 사용자가 여 러 종류의 명 령을 입 력하기 위한 입 력장치로서, 키패드부 (530A), 터치패드부 (530B), 리모컨부 (530C) 중 하나 이상을 포함할 수 있지만,본 발명은 이에 한정되지 아니 한다.  The input unit 530 is an input device for the user to input various types of commands, and may include one or more of a keypad unit 530A, a touch pad unit 530B, and a remote controller unit 530C. The present invention is not limited thereto.
신호 코딩 유닛 (540)는 유무선 통신부 (510)를 통해 수신된 오디오 신호 및 /또는 비디오 신호에 대해서 인코딩 또는 디코딩을 수행하고, 시간 도메인의 오디오 신호를 출력한다. 오디오 신호 처리 장치 (545)를 포함하는데, 이는 앞서 설명 한 본 발명의 실시 예 (즉, 제 1 실시 예에 따른 인코더 (100) 및 /또는 디코더 (200), 제 2 실시 예에 따른 인코더 (300) 및 /또는 디코더 (400))에 해당하는 것으로서, 이와 같이 오디오 처리 장치 (545) 및 이를 포함한 신호 코딩 유닛은 하나 이상의 프로세서에 의해 구현될 수 있다.  The signal coding unit 540 encodes or decodes an audio signal and / or a video signal received through the wired / wireless communication unit 510 and outputs an audio signal of a time domain. Audio signal processing apparatus 545, which is an embodiment of the invention described above (i.e., encoder 100 and / or decoder 200 according to the first embodiment, encoder 300 according to the second embodiment). And / or decoder 400), the audio processing apparatus 545 and the signal coding unit including the same may be implemented by one or more processors.
제어부 (550)는 입 력장치들로부터 입 력 신호를 수신하고, 신호 디코딩부 (540)와 출력부 (560)의 모든 프로세스를 제어한다. 출력부 (560)는 신호 디코딩부 (540)에 의해 생성된 출력 신호 등이 출력되는 구성요소로서, 스피커부 (560A) 및 디스폴레이부 (560B)를 포함할 수 있다. 출력 신호가 오디오 신호일 때 출력 신호는 스피커로 출력되고, 비디오 신호일 때 출력 신호는 디스플레이를 통해 출력된다.  The controller 550 receives input signals from the input devices and controls all processes of the signal decoding unit 540 and the output unit 560. The output unit 560 is a component in which an output signal generated by the signal decoding unit 540 is output, and may include a speaker unit 560A and a display unit 560B. When the output signal is an audio signal, the output signal is output to the speaker, and when the output signal is a video signal, the output signal is output through the display.
도 16 는 본 발명의 일 실시예에 따른 오디오 신호 처리 장치가 구현된 제품들의 관계도이다. 도 16 는 도 15 에서 도시된 제품에 해당하는 단말 및 서버와의 관계를 도시 한 것으로서, 도 16 의 (A)를 참조하면, 제 1 단말 (500.1) 및 제 2 단말 (500.2)이 각 단말들은 유무선 통신부를 통해서 데이터 내지 비트스트림을 양방향으로 통신할 수 있음을 알 수 있다. 도 16 의 (B)를 참조하면, 서버 (600) 및 제 1 단말 (500.1) 또한 서로 유무선 통신을 수행할 수 있음을 알 수 있다. 16 is a relationship diagram of products in which an audio signal processing apparatus according to an embodiment of the present invention is implemented. FIG. 16 illustrates a relationship between a terminal and a server corresponding to the product illustrated in FIG. 15. Referring to FIG. 16A, the first terminal 500. And the second terminal (500.2) it can be seen that each terminal can communicate data to the bitstream in both directions through the wired or wireless communication unit. Referring to FIG. 16B, it can be seen that the server 600 and the first terminal 500.1 may also perform wired or wireless communication with each other.
본 발명에 따른 오디오 신호 처리 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 본 발명에 따른 데이터 구조를 가지는 멀티미디어 데이터도 컴퓨터가 읽을 수 있는 기록 매체에 저 장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀 질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD- ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브 (예를 들어 인터넷을 통한 전송)의 형 태로 구현되는 것도 포함한다. 또한, 상기 인코딩 방법에 의해 생성된 비트스트림은 컴퓨터가 읽을 수 있는 기록 매체에 저장되거나, 유 /무선 통신망을 이용해 전송될 수 있다. 이상과 같이, 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되 었으나, 본 발명은 이 것에 의해 한정되지 않으며 본 발명 이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기 재될 특허 청구범위의 균등범위 내에서 다양한 수정 및 변형 이 가능함은 물론이다. [Industrial Applicability] 본 발명은 오디오 신호를 인코딩하고 디코딩하는 데 적용될 수 있다 . The audio signal processing method according to the present invention can be stored in a computer-readable recording medium which is produced as a program for execution in a computer, and multimedia data having a data structure according to the present invention can also be stored in a computer-readable recording medium. Can be stored. The computer readable recording medium includes all kinds of storage devices for storing data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of carrier wave (for example, transmission over the Internet). Include. In addition, the bitstream generated by the encoding method may be stored in a computer-readable recording medium or transmitted through a wired / wireless communication network. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to this and the technical spirit of the present invention and the following by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of the appended claims. [Industrial Applicability] The present invention can be applied to encoding and decoding an audio signal.

Claims

【청구의 범위】 [Range of request]
[청구항 1]  [Claim 1]
현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써, 복수의 선형 -예측 변환 계수들에 대웅하는 타깃 백터를 생성하는 단계;  Generating a target vector for performing a plurality of linear-prediction transform coefficients by performing a linear-prediction analysis on the audio signal of the current frame;
제 1 서브백터 및 제 2 서브백터를 포함하는 복수의 서브백터로 상기 타깃 백터를 생성하는 단계;  Generating the target vector with a plurality of subvectors including a first subvector and a second subvector;
상기 제 1 서브백터를 백터 양자화함으로써 제 1 코드 백터를 획득하는 단계;  Obtaining a first code vector by vector quantizing the first subvector;
상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하는 단계;  Removing one or more redundant code vectors from the initial codebook for the second subvector using the last component of the first code vector;
상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 단계; 및, 상기 갱신 코드북을 이용하여 , 상기 제 2 서브백터를 백터 양자화함으로써 , 제 2 코드 백터를 획득하는 단계를 포함하고,  Generating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; And obtaining a second code vector by vector quantizing the second sub vector using the update codebook.
상기 추가 코드 백터는 상기 제 1 코드 백터의 마지 막 성분을 기초로 예측된 것 임을 특징으로 하는 오디오 신호 처리 방법 .  Wherein the additional code vector is predicted based on a last component of the first code vector.
[청구항 2] [Claim 2]
제 1 항에 있어서 ,  The method of claim 1,
상기 잉 여 코드 백터의 개수는 상기 추가 코드 백터의 개수와 동일한 것을 특징으로 하는 오디오 신호 처리 방법 .  And the number of redundant code vectors is equal to the number of additional code vectors.
[청구항 3] [Claim 3]
제 1 항에 있어서,  The method of claim 1,
상기 갱신 코드북을 생성하는 단계는,  Generating the update codebook,
상기 제 1 코드 백터의 마지막 성분을 이용하여 최초 성분 예측값을 획득하는 단계 ;  Obtaining an initial component prediction value using the last component of the first code vector;
상기 최초 성분 예측값을 이용하여 상기 초기 코드북으로부터 둘 이상의 후보 코드 백터들을 선택하는 단계 ;  Selecting two or more candidate code vectors from the initial codebook using the original component prediction value;
상기 후보 코드 백터들을 내삽함으로써, 임시 코드 백터를 생성하는 단계 ;  Generating a temporary code vector by interpolating the candidate code vectors;
상기 임시 코드 백터 중 순서화 성 질을 만족하는 코드 백터들을 상기 추가 코드 백터로서 선정하는 단계 ; 및 ,  Selecting code vectors that satisfy an ordering property among the temporary code vectors as the additional code vector; And,
상기 추가 코드 백터를 상기 초기 코드북에 부가함으로써 상기 갱신 코드북을 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법 . Generating the update codebook by adding the additional code vector to the initial codebook.
[청구항 4] [Claim 4]
제 3 항에 있어서,  The method of claim 3, wherein
상기 최초 성분 예측값은 증가 평균 (gradient mean)을 상기 제 1 코드 백터 의 마지막 성분에 더함으로써 획득되고,  The first component prediction value is obtained by adding a gradient mean to the last component of the first code vector,
상기 증가 평균은, 상기 제 1 코드 백터의 현재 성분 및 이 전 성분간의 차이를 근거로 하는 것을 특징으로 하는 오디오 신호 처리 방법 .  And the increasing average is based on the difference between the current component and the previous component of the first code vector.
[청구항 5] [Claim 5]
제 3 항에 있어서,  The method of claim 3,
상기 둘 이상의 후보 코드 백터는,  The two or more candidate code vectors are
상기 제 2 서브백터를 위한 코드북에 포함된 코드 백터들의 최초 성분과, 상기 최초 성분 예측값과의 차이를 근거로 선택되는 것을 특징으로 하는 오디오 신호 처리 방법 .  And selecting the first component of the code vectors included in the codebook for the second sub vector based on a difference between the first component predicted value and the first component predicted value.
[청구항 6] [Claim 6]
제 1 항에 있어서,  The method of claim 1,
상기 갱신 코드북은,  The update codebook,
오름차순 정 렬에 있어서, 상기 초기 코드북에서의 상기 잉 여 코드 백터의 다음에 위치하였던 코드 백터에 대해, 첫번째 인덱스가 부여된 것임을 특징으로 하는 오디오 신호 처리 방법.  The audio signal processing method according to the ascending order, characterized in that a first index is given to a code vector located after the redundant code vector in the initial codebook.
[청구항 7] [Claim 7]
현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써 , 복수의 선형 -예측 변환 계수들에 대웅하는 타깃 백터를 생성하는 선형 예측부; 제 1 서브백터 및 제 2 서브백터를 포함하는 복수의 서브백터로 상기 타깃 백터를 생성하는 백터 분할부;  A linear predictor for performing a linear-prediction analysis on the audio signal of the current frame, thereby generating a target vector for the plurality of linear-prediction transform coefficients; A vector divider configured to generate the target vector from a plurality of subvectors including a first subvector and a second subvector;
상기 제 1 서브백터를 백터 양자화함으로써 제 1 코드 백터를 획득하는 제 1 양자화부;  A first quantizer for obtaining a first code vector by vector quantizing the first sub vector;
상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하고, 상기 제 1 코드 백터의 마지막 성분을 이용하여, 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 코드북 갱신부; 및,  Using the last component of the first code vector, removing one or more redundant code vectors from the initial codebook for the second subvector, and using the last component of the first code vector, one or more in the initial codebook A codebook updater for generating an update codebook by adding an additional code vector; And,
상기 갱신 코드북을 이용하여 , 상기 제 2 서브백터를 백터 양자화함으로써 , 제 2 코드 백터를 획득하는 제 1 양자화부를 포함하고,  A first quantizer for obtaining a second code vector by vector quantizing the second sub vector using the update codebook,
상기 추가 코드 백터는 상기 제 1 코드 백터의 마지막 성분을 기초로 예측된 것 임을 특징으로 하는 오디오 신호 처 리 장치 . Wherein the additional code vector is predicted based on a last component of the first code vector.
[청구항 8] [Claim 8]
제 1 코드 백터의 제 1 코드북 인덱스, 및 제 2 코드 백터의 제 2 코드북 인덱스를 수신하는 단계;  Receiving a first codebook index of a first code vector and a second codebook index of a second code vector;
제 1 코드북 인덱스를 이용하여 상기 제 1 코드 백터의 마지막 성분을 획득하는 단계;  Obtaining a last component of the first code vector using a first codebook index;
상기 제 1 코드 백터의 마지 막 성분을 이용하여, 제 2 서브백터를 위한 초기 코드북으로부터 하나 이상의 잉 여 코드 백터를 제거하는 단계;  Using the last component of the first code vector to remove one or more redundant code vectors from an initial codebook for a second subvector;
상기 제 1 코드 백터의 마지막 성분을 이용하여 , 상기 초기 코드북에 하나 이상의 추가 코드 백터를 부가함으로써 갱신 코드북을 생성하는 단계; 상기 갱신 코드북 및 상기 제 2 코드북 인덱스를 이용하여, 제 2 서브백터를 획득하는 단계를 포함하고,  Creating an update codebook by adding one or more additional code vectors to the initial codebook using the last component of the first code vector; Using the update codebook and the second codebook index, obtaining a second subvector;
상기 추가 코드 백터는 상기 제 1 코드 백터의 마지막 성분을 이용하여 예측된 것을 특징으로 하는 오디오 신호 처리 방법 .  And the additional code vector is predicted using the last component of the first code vector.
[청구항 9] [Claim 9]
현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써 , 복수의 선형 -예측 변환 계수들을 생성하는 단계;  Generating a plurality of linear-predictive transform coefficients by performing a linear-prediction analysis on the audio signal of the current frame;
상기 복수의 선형 -예측 변환 계수들을 배열함으로써 , 하나 이상의 참조 서브백터, 및 하나 이상의 비 -참조 서브백터를 생성하는 단계;  Generating one or more reference subvectors and one or more non-reference subvectors by arranging the plurality of linear-predictive transform coefficients;
상기 하나 이상의 참조 서브백터에 대해 백터 양자화를 수행함으로써, 참조 코드 백터를 획득하는 단계;  Obtaining a reference code vector by performing vector quantization on the one or more reference subvectors;
상기 참조 코드 백터들의 각 성분 중 두 개의 성분을 이용하여, 상기 비 -참조 서브백터의 최소값 및 최 대값을 추정하는 단계;  Estimating the minimum and maximum values of the non-referenced subvectors using two components of each component of the reference code vectors;
상기 최소값 및 상기 최 대값을 이용하여 상기 비 -참조 서브백터를 위한 적웅 코드북을 생성하는 단계; 및,  Generating a red-eye codebook for the non-referenced subvector using the minimum and the maximum values; And,
상기 적웅 코드북을 이용하여, 상기 비 -참조 서브백터에 대해 백터 양자화를 수행함으로써, 비 -참조 코드 백터를 획득하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법 .  And obtaining a non-reference code vector by performing vector quantization on the non-reference subvector using the decoded codebook.
[청구항 10] [Claim 10]
제 9 항에 있어서,  The method of claim 9,
상기 적웅 코드북을 생성하는 단계는;  Generating the ungwoo codebook;
정규화된 코드 백터들을 획득하는 단계; 및,  Obtaining normalized code vectors; And ,
상기 정규화된 코드백터들에 상기 최소값 및 상기 최 대값을 적용함으로써, 상기 적웅 코드북을 생성하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법 . Generating the red-eye codebook by applying the minimum value and the maximum value to the normalized codevectors.
[청구항 11] [Claim 11]
제 9. 항에 있어서 ,  The method of claim 9.
상기 참조 코드 백터는 제 1 참조 코드 백터를 포함하고,  The reference code vector comprises a first reference code vector,
상기 참조 코드 백터들의 두 개의 성분은, 상기 제 1 참조 코드 백터의 마지막 성분 및 마지막 이 전 성분인 것을 특징으로 하는 오디오 신호 처리 방법 .  Two components of the reference code vectors are the last component and the last previous component of the first reference code vector.
[청구항 12] [Claim 12]
제 9 항에 있어서,  The method of claim 9,
상기 참조 코드 백터는 제 1 참조 코드 백터 및 제 2 참조 코드 백터를 포함하고,  The reference code vector comprises a first reference code vector and a second reference code vector,
상기 참조 코드 백터들의 두 개의 성분은, 상기 제 1 참조 코드 백터의 마지막 성분 및, 상기 제 2 참조 코드 백터의 첫 번째 성분인 것을 특징으로 하는 오디오 신호 처리 방법 .  Two components of the reference code vectors are the last component of the first reference code vector and the first component of the second reference code vector.
[청구항 13] [Claim 13]
제 9 항에 있어서,  The method of claim 9,
상기 최소값 및 상기 최 대값은 선형 -예측 변환 계수들의 순서화 성 질에 기초하여 추정되는 것임을 특징으로 하는 오디오 신호 처 리 방법 .  Wherein the minimum value and the maximum value are estimated based on the ordering quality of the linear-predictive transform coefficients.
[청구항 14] [Claim 14]
제 9 항에 있어서,  The method of claim 9,
상기 복수의 선형 -예측 변환 계수들의 상기 배열은,  The arrangement of the plurality of linear-predictive transform coefficients is
[Wj, W2, W3, W8, W13, W14, Wis, Wie, W4, W5, W6, W7, W9, Wio, Wn, W12] [Wj, W 2 , W 3 , W 8 , W 13 , W 14 , Wis, Wie, W 4 , W 5 , W 6 , W 7 , W 9 , Wio, W n , W 12 ]
[Wl5 W2, W3, W8, W4, W5, W6, W7] [W l5 W 2 , W 3 , W 8 , W 4 , W 5 , W 6 , W 7 ]
[Wl5 W2, W6, W3, W4, W5, W7, W8, W9] [W l5 W 2 , W 6 , W 3 , W 4 , W 5 , W 7 , W 8 , W 9 ]
[W W2, W6, W3, W4, W5, W10, Wn, W12, W7, W8, W9], 및 [WW 2 , W 6 , W 3 , W 4 , W 5 , W 10 , W n , W 12 , W 7 , W 8 , W 9 ], and
[Wb W2, W6, W3, W4, W5, W7, W8, W12, W9, Wio, wn , W13, W14, W15] [W b W 2 , W 6 , W 3 , W 4 , W 5 , W 7 , W 8 , W 12 , W 9 , Wio, w n , W 13 , W 14 , W 15 ]
(Wx는 X 번째 선형 -예측 변환 계수)중에 하나이고, (W x is one of the X-th linear-predictive transformation coefficients),
상기 참조 서브백터는, {Wi W2 W3 W8}5 {Wn W14 W15 W16}, {Wi W2 W6}, {Wio WH W12}, 및 {W7 W8 W12} (여기서 Wx는 X 번째 선형 -예측 변환 계수) 중 하나 이상이고, The reference subvector includes {Wi W 2 W 3 W 8 } 5 {Wn W 14 W 15 W 16 }, {Wi W 2 W 6 }, {Wio W H W 12 }, and {W 7 W 8 W 12 } (Where W x is one or more of the X-th linear-predictive transformation coefficients),
상기 비 -참조 서브백터는, {W4 W5 W6 W7}, {W9 Wio Wn W12}, {W3 W4 W5}, {Wi W2 W6}, {W10 Wn Wi2}, {W7 W8 W12} (여기서 Wx는 X 번째 선형 -예측 변환 계수) 중 하나 이상인 것을 특징으로 하는 오디오 신호 처 리 방법 . [청구항 15] The non-referenced subvectors include: {W 4 W 5 W 6 W 7 }, {W 9 Wio Wn W 12 }, {W 3 W 4 W 5 }, {Wi W 2 W 6 }, {W 10 W n Wi 2 }, {W 7 W 8 W 12 }, where W x is at least one of the X-th linear-predictive transform coefficients. [Claim 15]
현재 프레임의 오디오 신호에 대해 선형 -예측 분석을 수행함으로써 , 복수의 선형 -예측 변환 계수들을 생성하는 선형예측 분석부;  A linear prediction analyzer for generating a plurality of linear-prediction transform coefficients by performing linear-prediction analysis on the audio signal of the current frame;
상기 복수의 선형 -예측 변환 계수들을 배열함으로써, 하나 이상의 참조 서브백터, 및 하나 이상의 비 -참조 서브백터를 생성하는 배열부;  An array unit for generating one or more reference subvectors and one or more non-reference subvectors by arranging the plurality of linear-prediction transform coefficients;
상기 하나 이상의 참조 서브백터에 대해 백터 양자화를 수행함으로써 , 참조 코드 백터를 획득하는 독립 양자화부;  An independent quantizer that obtains a reference code vector by performing vector quantization on the one or more reference subvectors;
상기 참조 코드 백터들의 각 성분 중 두 개의 성분을 이용하여, 상기 비 -참조 서브백터의 최소값 및 최대값을 추정하고, 상기 최소값 및 상기 최대값을 이용하여 상기 적웅 코드북올 생성하는 적웅코드북 생성부; 및,  A red-eye codebook generator for estimating the minimum and maximum values of the non-referenced sub-vectors using two components of each of the components of the reference code vectors, and generating the red-hero codebook using the minimum and the maximum values; And,
상기 적웅 코드북을 이용하여 , 상기 비 -참조 서브백터에 대해 백터 양자화를 수행함으로써 , 비 -참조 코드 백터를 획득하는 종속 양자화부를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법 . [청구항 16]  And a dependent quantizer for acquiring a non-reference code vector by performing vector quantization on the non-reference subvector using the decoded codebook. [Claim 16]
하나 이상의 참조 코드 백터의 참조 코드북 인덱스, 및 하나 이상의 비- 참조 코드 백터의 비 -참조 코드북 인덱스를 수신하는 단계;  Receiving a reference codebook index of one or more reference code vectors, and a non-reference codebook index of one or more non-reference code vectors;
상기 하나 이상의 참조 코드북 인덱스를 이용하여, 하나 이상의 참조 코드 백터들을 획득하는 단계;  Obtaining one or more reference code vectors using the one or more reference codebook indices;
상기 참조 코드 백터들의 각 성분 중 두 개의 성분을 이용하여, 비 -참조 서브백터의 최소값 및 최 대값을 추정하는 단계;  Estimating a minimum and maximum value of a non-reference subvector using two components of each component of the reference code vectors;
상기 최소값 및 상기 최대값을 이용하여 상기 비 -참조 서브백터를 위한 적응 코드북을 생성하는 단계; 및,  Generating an adaptive codebook for the non-referenced subvector using the minimum and maximum values; And,
상기 적웅 코드북 및 상기 비 -참조 코드북 인덱스를 이용하여, 상기 비- 참조 서브백터를 획득하는 단계를 포함하는 것을 특징으로 하는 오디오 신호 처리 방법 .  And obtaining the non-reference subvector using the decoded codebook and the non-reference codebook index.
PCT/KR2011/000327 2010-01-15 2011-01-17 Method and apparatus for processing an audio signal WO2011087333A2 (en)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
US29516810P 2010-01-15 2010-01-15
US61/295,168 2010-01-15
US32428910P 2010-04-14 2010-04-14
US61/324,289 2010-04-14
US37744510P 2010-08-26 2010-08-26
US61/377,445 2010-08-26
US201061426501P 2010-12-22 2010-12-22
US61/426,501 2010-12-22

Publications (2)

Publication Number Publication Date
WO2011087333A2 true WO2011087333A2 (en) 2011-07-21
WO2011087333A3 WO2011087333A3 (en) 2011-11-10

Family

ID=44352280

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2011/000327 WO2011087333A2 (en) 2010-01-15 2011-01-17 Method and apparatus for processing an audio signal

Country Status (1)

Country Link
WO (1) WO2011087333A2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107077857A (en) * 2014-05-07 2017-08-18 三星电子株式会社 The method and apparatus and the method and apparatus of de-quantization quantified to linear predictor coefficient
US11450329B2 (en) 2014-03-28 2022-09-20 Samsung Electronics Co., Ltd. Method and device for quantization of linear prediction coefficient and method and device for inverse quantization

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980024519A (en) * 1996-09-24 1998-07-06 이데이 노브유끼 Vector quantization method, speech coding method and apparatus
KR19980078533A (en) * 1997-04-29 1998-11-16 윤종용 Vector Quantization Method of Line Spectrum Frequency Using Localization Characteristics
KR20050032655A (en) * 2003-10-02 2005-04-08 주식회사 콤위즈 Electrical transmission methods and line system compressing into optional data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980024519A (en) * 1996-09-24 1998-07-06 이데이 노브유끼 Vector quantization method, speech coding method and apparatus
KR19980078533A (en) * 1997-04-29 1998-11-16 윤종용 Vector Quantization Method of Line Spectrum Frequency Using Localization Characteristics
KR20050032655A (en) * 2003-10-02 2005-04-08 주식회사 콤위즈 Electrical transmission methods and line system compressing into optional data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IM, SANG-HYUN ET AL.: 'A Predictive 3 Split Multi - Stage Vector Quantization Method for the Efficient Coding of Line Spectrum Pair Parameters' KIISE FALL CONFERENCE vol. 21, no. 2, 1994, pages 513 - 516 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11450329B2 (en) 2014-03-28 2022-09-20 Samsung Electronics Co., Ltd. Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
US11848020B2 (en) 2014-03-28 2023-12-19 Samsung Electronics Co., Ltd. Method and device for quantization of linear prediction coefficient and method and device for inverse quantization
CN107077857A (en) * 2014-05-07 2017-08-18 三星电子株式会社 The method and apparatus and the method and apparatus of de-quantization quantified to linear predictor coefficient
CN107077857B (en) * 2014-05-07 2021-03-09 三星电子株式会社 Method and apparatus for quantizing linear prediction coefficients and method and apparatus for dequantizing linear prediction coefficients
US11238878B2 (en) 2014-05-07 2022-02-01 Samsung Electronics Co., Ltd. Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same
US11922960B2 (en) 2014-05-07 2024-03-05 Samsung Electronics Co., Ltd. Method and device for quantizing linear predictive coefficient, and method and device for dequantizing same

Also Published As

Publication number Publication date
WO2011087333A3 (en) 2011-11-10

Similar Documents

Publication Publication Date Title
CA2524243C (en) Speech coding apparatus including enhancement layer performing long term prediction
EP0942411B1 (en) Audio signal coding and decoding apparatus
JP4506039B2 (en) Encoding apparatus and method, decoding apparatus and method, and encoding program and decoding program
RU2509379C2 (en) Device and method for quantising and inverse quantising lpc filters in super-frame
US7599833B2 (en) Apparatus and method for coding residual signals of audio signals into a frequency domain and apparatus and method for decoding the same
US8510105B2 (en) Compression and decompression of data vectors
JPH11143499A (en) Improved method for switching type predictive quantization
WO2012137617A1 (en) Encoding method, decoding method, encoding device, decoding device, program, and recording medium
US20100217753A1 (en) Multi-stage quantization method and device
CN101548316A (en) Encoding device, decoding device, and method thereof
JP2004526213A (en) Method and system for line spectral frequency vector quantization in speech codecs
JP3344962B2 (en) Audio signal encoding device and audio signal decoding device
WO2006001218A1 (en) Audio encoding device, audio decoding device, and method thereof
JP2002335161A (en) Signal processor and processing method, signal encoder and encoding method, signal decoder and decoding method
WO2007132750A1 (en) Lsp vector quantization device, lsp vector inverse-quantization device, and their methods
JPWO2007114290A1 (en) Vector quantization apparatus, vector inverse quantization apparatus, vector quantization method, and vector inverse quantization method
JP3541680B2 (en) Audio music signal encoding device and decoding device
KR20240022588A (en) Compress audio waveforms using neural networks and vector quantizers
JP2004029708A (en) Device and method for vector-quantizing and decoding sound signal
JP2001507822A (en) Encoding method of speech signal
US20130101028A1 (en) Encoding method, decoding method, device, program, and recording medium
JP5303074B2 (en) Encoding method, decoding method, apparatus thereof, program, and recording medium
JP3297749B2 (en) Encoding method
JP2011008250A (en) Bit rate scalable speech coding and decoding apparatus, and method for the same
WO2011087333A2 (en) Method and apparatus for processing an audio signal

Legal Events

Date Code Title Description
NENP Non-entry into the national phase in:

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11733120

Country of ref document: EP

Kind code of ref document: A2