WO1999021174A1 - Sound encoder and sound decoder - Google Patents

Sound encoder and sound decoder Download PDF

Info

Publication number
WO1999021174A1
WO1999021174A1 PCT/JP1998/004777 JP9804777W WO9921174A1 WO 1999021174 A1 WO1999021174 A1 WO 1999021174A1 JP 9804777 W JP9804777 W JP 9804777W WO 9921174 A1 WO9921174 A1 WO 9921174A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
celp
code
diffusion
sound source
Prior art date
Application number
PCT/JP1998/004777
Other languages
English (en)
French (fr)
Other versions
WO1999021174A8 (en
Inventor
Kazutoshi Yasunaga
Toshiyuki Morii
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=27304940&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO1999021174(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from JP28941297A external-priority patent/JP3235543B2/ja
Priority claimed from JP29513097A external-priority patent/JP3175667B2/ja
Priority claimed from JP08571798A external-priority patent/JP3174756B2/ja
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP98950336A priority Critical patent/EP0967594B1/en
Priority to KR10-2003-7013816A priority patent/KR100527217B1/ko
Priority to DE69836624T priority patent/DE69836624T2/de
Priority to CA002275266A priority patent/CA2275266C/en
Priority to KR1019997005510A priority patent/KR100651438B1/ko
Priority to CNB2005100062028A priority patent/CN100349208C/zh
Priority to US09/319,933 priority patent/US6415254B1/en
Publication of WO1999021174A1 publication Critical patent/WO1999021174A1/ja
Publication of WO1999021174A8 publication Critical patent/WO1999021174A8/ja
Priority to HK00104635A priority patent/HK1025417A1/xx
Priority to US10/133,735 priority patent/US7024356B2/en
Priority to US10/614,834 priority patent/US7373295B2/en
Priority to US11/125,184 priority patent/US7590527B2/en
Priority to US11/281,386 priority patent/US7499854B2/en
Priority to US11/508,849 priority patent/US7546239B2/en
Priority to US11/776,823 priority patent/US7533016B2/en
Priority to US12/357,093 priority patent/US8332214B2/en
Priority to US12/362,232 priority patent/US7925501B2/en
Priority to US12/783,974 priority patent/US8352253B2/en

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Definitions

  • the present invention relates to an audio encoding device and an audio decoding device for efficiently encoding and decoding audio information.
  • Figure 1 shows the function block of a conventional CELP speech coding device.
  • the speech signal 11 input to the CELP-type speech coder is subjected to linear prediction analysis by the linear prediction analysis unit 12.
  • the linear prediction coefficient is obtained by this linear prediction analysis.
  • the linear prediction coefficient obtained by the linear prediction analysis unit 12 which is a parameter representing the envelope characteristic of the frequency spectrum of 1 is quantized by the linear prediction coefficient encoding unit 13 and the quantized linear prediction coefficient is It is sent to the linear prediction coefficient decoding unit 14.
  • the quantization number obtained by the quantization is output to the code output unit 24 as a linear prediction code.
  • the linear prediction coefficient decoding unit 24 The linear prediction coefficient quantized by the coefficient encoding unit 13 is decoded to obtain the coefficients of the synthesis filter.
  • the linear prediction coefficient decoding unit 24 generates the synthesis filter. Output to the synthesis filter 15
  • the adaptive codebook 17 is a codebook that outputs a plurality of types of adaptive code vector signs, and is composed of a buffer that stores only a few previous frames of the driving sound source. Is a time-series vector representing the periodic components in the input speech
  • the noise code book 18 is a code book that stores multiple types of noise code vector candidates (types corresponding to the number of allocated bits).
  • the noise code vector is used to detect aperiodic components in the input speech. It is a time series vector to be expressed.
  • the adaptive code gain weighting unit 19 and the noise code gain weighting unit 20 read the candidate vectors output from the adaptive codebook 17 and the noise codebook 18 from the weighted codebook 21. Multiply the adaptive code gain by the noise code gain and output the result to the adder 22
  • the weighting codebook is a memory that stores multiple types of weights (types corresponding to the number of allocated bits) for each of the weights for multiplying the adaptive code vector candidates and the weights for multiplying the noise code vector candidates.
  • the addition unit 22 adds the adaptive code vector candidate and the noise code vector candidate weighted by the adaptive code gain weighting unit 19 and the noise code gain weighting unit 20, respectively, to generate a driving excitation vector candidate. Generate and output to synthesis filter 15
  • the synthesis filter 15 is an all-pole filter composed of the coefficients of the synthesis filter obtained by the linear prediction coefficient decoding unit ⁇ 4.-
  • the synthesis filter 15 includes the driving sound source vector from the addition unit 22. When a candidate is input, it has a function to output a synthesized speech candidate.
  • the distortion calculation unit 16 calculates the distortion between the synthesized speech vector catcher output from the synthesis filter 15 and the input speech 11, and outputs the obtained distortion value to the code number identification unit 23.
  • the code number identification unit 23 is a type of code number (adaptive code number, noise code number, and weight code number) that minimizes the distortion calculated by the distortion calculation unit ⁇ 6. ) Is specified for each of the three types of codebooks (adaptive codebook, noise codebook, and weighted codebook), and the three types of code numbers specified by the code number specification unit 23 are output to the code output unit 2 Output to 4.
  • the code output unit 24 collects the linear prediction code number obtained by the linear prediction coefficient coding unit 13 and the adaptive code number, noise code number, and weight code number specified by the code number specification unit 23. Output to the transmission path.
  • FIG. 2 shows functional blocks of a CELP-type speech decoding apparatus for decoding a signal encoded by the above-mentioned encoding apparatus.
  • a code input unit 3 1 input ⁇ speech encoding apparatus (FIG. 1) )
  • the received code is decomposed into a linear prediction code number, an adaptive code number, a noise code number, and a weight code number, and the codes obtained by the decomposition are respectively decoded into linear prediction coefficients.
  • Part 3 2 adaptive codebook 33, noise codebook 34, weight codebook 35
  • the linear prediction coefficient decoding unit 32 decodes the linear prediction code number obtained in the code input unit 31 to obtain the coefficients of the synthesis filter, and outputs the coefficients to the synthesis filter 39.
  • the adaptive code vector is read from the position corresponding to the adaptive code number in the book, the noise code vector corresponding to the noise code number is read from the noise code book, and the weight code number is read from the weight code book.
  • the corresponding adaptive code gain and noise code gain are read out, and the adaptive code vector weighting section 36 multiplies the adaptive code vector by the adaptive code gain and sends the result to the addition section 38.
  • the noise code vector weighting unit 37 multiplies the noise code vector by the noise code gain and sends the result to the addition unit 38
  • the adder 38 adds the above two code vectors to generate a driving excitation vector, and the generated driving excitation drives the adaptive codebook 33 to update the buffer and drives the filter.
  • the synthesis filter 39 is driven by the driving sound source vector obtained by the adder 38, and the synthesized speech is output using the output of the linear prediction coefficient decoder 32. Play —
  • the distortion calculator 16 of the CELP type speech coding apparatus generally uses the following equation: The distortion E calculated by the equation (Equation (1)) is calculated.
  • V Input audio signal (vector)
  • h is the impulse response (vector) of the synthesis filter and L is the frame length
  • Equation (1) it is necessary to calculate the distortion in a closed loop for all combinations of the adaptive code number, the noise code number, and the weight code number, and specify each code number.
  • an adaptive code number is specified by vector quantization using an adaptive codebook, and then a noise codebook is used.
  • the noise code number is specified by the vector quantization
  • the weight code number is specified by the vector quantization using the weighted codebook.
  • the vector code using the noise codebook is used.
  • Equation (2) Equation (2)
  • the vector x in equation (2) is the noise source information (noise code number identification) determined by the following equation 3 using the adaptive code number and adaptive code gain specified earlier or provisionally.
  • Target vector the noise source information (noise code number identification) determined by the following equation 3 using the adaptive code number and adaptive code gain specified earlier or provisionally.
  • V Audio signal (vector)
  • the noise code gain gc is specified after the noise code number is specified, it can be assumed that gc in the equation (2) can take an arbitrary value, so the noise code vector that minimizes the equation (2)
  • the process of identifying the number of the noise can be replaced with the identification of the number of the noise code vector that maximizes the fractional expression of the following expression (4).
  • the vector quantization processing of the noise source information is performed by maximizing the fractional expression of the expression (4) calculated by the distortion calculator 16. This is the process of specifying the number of the noise code vector candidate to be transformed.
  • the noise source information (the target for noise code number identification) obtained by equation (3) is Since the approximation is always represented by a small number of pulses, there is a limit in improving the voice quality. It is evident from the fact that there are almost no cases composed of only a small number of pulses.
  • the present invention relates to a new sound source vector generation device capable of generating a sound source vector having a shape that is statistically highly similar to the shape of a sound source vector obtained when an audio signal is actually analyzed.
  • the present invention provides a CELP speech coding system that can obtain higher quality synthesized speech than using the algebraic sound source generation unit as a noise codebook by using the above-mentioned excitation vector generation device as a noise codebook.
  • An object of the present invention is to provide a decoding device, an audio signal communication system, and an audio signal recording system.
  • a pulse vector generation unit including N (N ⁇ l) channels for generating a pulse vector in which a unit pulse with a polarity rises in one element on a vector axis; Diffusion pattern storage / selection combining the function of storing M types (VI ⁇ 1) of diffusion patterns for each of N channels and the function of selecting one type of diffusion pattern from the stored VI types of diffusion patterns , A pulse vector output from the pulse vector generation unit and the diffusion pattern storage and selection unit A pulse vector spreading unit having a function of generating N spreading vectors by performing a superposition operation with a spreading pattern selected from the above for each channel, and N spreading codes generated by the pulse vector spreading unit A diffusion vector adding unit having a function of generating a sound source vector by adding a vector, the sound source vector generating device, wherein N (N ⁇ l) a function to generate pulse vectors algebraically, and the diffusion pattern storage / selection unit learns the shape (characteristics) of the actual sound source vector in advance.
  • a second aspect of the present invention is a CELP speech coding apparatus and a Z decoding apparatus, wherein the above-described excitation vector generation apparatus is used for a noise codebook.
  • Speech coder used for codebook It is possible to generate a sound source vector that is closer to the actual shape than the Z decoder, so that speech that can output higher quality synthesized speech Encoding device Z decoding device, audio signal communication system, audio signal recording system can be obtained-BRIEF DESCRIPTION OF THE DRAWINGS
  • Fig. 1 is a functional block diagram of a conventional CELP speech encoder.
  • Figure 2 is a functional block diagram of a conventional CELP-type speech decoding device.
  • FIG. 3 is a functional block diagram of the sound source vector generation device according to the first embodiment of the present invention.
  • FIG. 4 is a functional block diagram of a CELP-type speech coding apparatus according to a second embodiment of the present invention.
  • FIG. 5 is a functional block diagram of a CELP-type speech decoding device according to a second embodiment of the present invention.
  • FIG. 6 is a diagram showing a CELP-type speech coding apparatus according to the third embodiment of the present invention. Function block diagram
  • FIG. 7 is a functional block diagram of a CELP-type speech coding apparatus according to a fourth embodiment of the present invention.
  • FIG. 8 is a functional block diagram of a CELP-type speech encoding apparatus according to a fifth embodiment of the present invention.
  • FIG. 9 is a block diagram of the beta quantization function in the fifth embodiment.
  • FIG. 10 is a diagram for explaining an algorithm of target extraction in the fifth embodiment.
  • FIG. 11 is a functional block diagram of predictive quantization in the fifth embodiment.
  • FIG. 12 is a functional block diagram of predictive quantization in the sixth embodiment.
  • FIG. 13 is a functional block diagram of the seventh embodiment. Functional block diagram of CELP type speech coding device, and
  • FIG. 14 is a functional block diagram of a distortion calculator according to the seventh embodiment. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 3 shows a functional block of the sound source vector generation device according to the present embodiment.
  • the sound source vector generation device includes a pulse vector generation unit 101 having a plurality of channels, a diffusion pattern storage unit. Pattern storage / selection unit 102 having a pulse pattern and a switch, pulse vector diffusion unit 103 for spreading a pulse vector, and a diffusion vector for adding the pulse vectors of a plurality of spread channels. And a vector adder 104.
  • the pulse vector generation unit 101 generates N channels (hereinafter, referred to as pulse vectors) in which a unit pulse with polarity is arranged in one element on the vector axis (hereinafter, referred to as a pulse vector).
  • the pulse vector spreading section 103 has switches SW 1 to SW 3 for selecting one kind of diffusion pattern from VI kinds of diffusion patterns from VI I to VI 3 respectively.
  • the spreading vector that generates the N spreading vectors by performing the superposition calculation of the pulse vector output from the unit 101 and the spreading pattern and the spreading pattern output from the selecting unit 102 for each channel.
  • the vector addition unit 104 generates the sound source vector 105 by adding the N diffusion vectors generated by the pulse vector diffusion unit 103.
  • the pulse vector generator 101 generates algebraic pulse vectors for the number of channels (three in this embodiment) according to the rules described in Table 1.
  • the pulse vector diffusion unit 103 is stored in the diffusion pattern and selected by the selection unit 102.
  • a diffusion vector is generated for each channel by superimposing the generated diffusion pattern and the pulse generated by the pulse vector generation unit 101 using Equation (5).
  • the vector length of wij (m) is 2 ⁇ 1 (m :—( L-1) to L—1)
  • the value of 2 L—1 elements can be specified by the Lij element and other Elements are zero
  • the diffusion vector adding unit 104 generates the sound source vector 105 by adding the three diffusion vectors generated by the pulse vector spreading unit 103 using Equation (6).
  • L the sound source vector length
  • the diffusion pattern is stored.
  • a variety of sound source vectors can be created by changing the combination of the diffusion patterns selected by the unit 102 and the position and polarity of the pulse in the pulse vector generated by the pulse vector generation unit 101. Can be generated.
  • the combination of the diffusion pattern selected by the diffusion pattern storage / selection unit 102 and the pulse vector generated by the pulse vector generation unit 101 It is possible to assign a number corresponding to one-to-one for each of the two types of information on how to combine shapes (pulse position and pulse polarity). Also, diffusion pattern storage and selection unit 10 In (2), it is possible to perform learning in advance based on the actual sound source information and store the diffusion pattern obtained as a result of the learning.
  • the sound source vector having a shape (characteristic) similar to the actual sound source information can be obtained using the algebraically generated bals sound source. Can be generated
  • the diffusion pattern storage / selection section 102 stores two types of diffusion patterns per channel.
  • other than two types of diffusion patterns for each channel can be obtained by assigning
  • pulse vector generation section 101 has a three-channel configuration and is based on the pulse generation rules shown in Table 1 has been described. The same action and effect can be obtained when pulse generation rules other than those described in Table 1 are used.
  • the above-mentioned sound source vector generation device or speech coding device Z decoding device is used.
  • the operation and effect of the sound source vector generation device can be obtained.
  • Figure 4 shows the function proc of CELP type speech coding apparatus according to this embodiment, 3 showing a functional block of the CELP type speech decoding apparatus in FIG. 5
  • the vector quantization of the noise source information in the speech coding apparatus of Fig. 4 uses two types of numbers (the combination number of the diffusion pattern, the pulse position and the pulse number) that maximize the reference value of equation (4). (Combination number of polarity)
  • the diffusion pattern storage / selection unit 2 1 5 force First, one of the two types of diffusion patterns stored by itself is selected and output to the panoramic vector diffusion unit 2 17. Then, the pulse vector generator 216 generates algebraically the number of pulse vectors for the number of channels (three in this embodiment) according to the rules in Table 1, and outputs the generated pulse vectors to the pulsator spreader 217
  • the pulse vector diffusion unit 217 is stored in the diffusion pattern and selected by the selection unit 215.
  • the diffusion vector is generated for each channel by using the obtained diffusion pattern and the pulse vector information generated by the pulse vector generation unit 216 in the superposition calculation by Equation (5).
  • the spreading vector adder 218 adds the spreading vector obtained in the Bars vector spreading unit 2-7 to generate a sound source vector (a candidate for a noise code vector). .
  • the distortion calculator 206 calculates the value of the equation (4) using the noise code vector candidate obtained by the spreading vector adder 218. Calculation of the value of this equation (4) is performed for all combinations of vals vectors generated by the rules in Table 1, and the combination number of the diffusion pattern when the value of the equation (4) is maximized, The combination number of the pulse vector (combination of pulse position and its polarity) and the maximum value at that time are output to the code number identification section 2 13
  • the diffusion pattern storage / selection unit 2 15 selects a diffusion pattern of a different combination from the stored diffusion patterns from the stored diffusion pattern, and the same as above for the newly selected diffusion pattern combination. Then, the value of equation (4) is calculated for all combinations of pulse vectors generated by the pulse vector generator 2 16 according to the rules in Table 1, and from that, equation (4) is maximized. At the time, the combination number of the diffusion pattern, the combination number of the pulse vector, and the maximum value are output again to the code number identification unit 2 1 3
  • This process is repeated for all combinations that can be selected from the diffusion patterns stored in the diffusion pattern storage / selection unit 215 (the total number of combinations is 8 in the description of the present embodiment).
  • the code number identification unit 2 13 compares the maximum eight values calculated by the distortion calculation unit 206, selects the largest one from among them, and generates two types when the maximum value is generated.
  • the combination number (combination number of the diffusion pattern and the combination number of the pulse vector) is specified and output to the code output unit 214 as a noise code number.
  • the code input section 301 receives a code transmitted from the speech encoding apparatus (FIG. 4), and converts the received code into a corresponding linear prediction code number and an adaptive code number.
  • Code number, noise code number (composed of two types: combination number of spreading pattern and combination number of pulse vector) and weighting code number, and the code obtained by the decomposition are linear prediction coefficients, respectively.
  • the combination number of the diffusion pattern is output to the storage of the diffusion pattern-selection unit 311, and the combination number of the pulse vector is output to the pulse vector generation unit 312.
  • the linear prediction coefficient decoding unit 302 decodes the linear prediction code number to obtain a coefficient of the synthesis filter, and outputs the coefficient to the synthesis filter 309.
  • the adaptive code vector is read from the position-..
  • the spreading pattern storage / selection unit 311 reads the spreading pattern corresponding to the combination number of the spreading pulse for each channel.
  • Output to the pulse vector spreading section 3 ⁇ 3, and the vanores vector generating section 3 I 2 generates pulse vectors corresponding to the combination number of the pulse vector for the number of channels and generates the pulse vector.
  • Output to the spreading unit 3 13 and the pulse vector spreading unit 3 13 stores the diffusion pattern.
  • the spreading pattern received from the selecting unit 3 11 and the pulse pattern received from the pulse vector generating unit 3 1 2 A diffusion vector is generated by superposition of the vector and the equation (5).
  • the spread vector adder 314 outputs the signal to the spread vector adder 314.
  • the spread vector adder 314 adds the spread vector of each channel generated by the pulse vector spreader 313 to generate a noise code. To generate the number vector
  • an adaptive code gain and a noise code gain corresponding to the weight code number are read out from the weight code book 300, and the adaptive code vector weighting unit 304 multiplies the adaptive code vector by the adaptive code gain.
  • the noise code vector is multiplied by the noise code gain in the noise code vector weighting unit 307, and is sent to the addition unit 308.
  • the adder 308 generates a drive excitation vector by adding the above two code vectors multiplied by the gain, and uses the generated drive excitation vector as an adaptive codebook 3 for buffer update. 0 3 Also outputs to synthesis filter 309 to drive the synthesis filter.
  • the synthesis filter 309 is driven by the driving sound source vector obtained by the addition section 308, and reproduces the synthesized speech 310.
  • the adaptive codebook 303 is received from the addition section 308. Update the buffer with the driving sound source vector
  • the diffusion pattern storage and selection unit in FIGS. 4 and 5 uses the distortion evaluation criterion equation of equation (7) in which the sound source vector described in equation (6) is substituted for c in equation (2). It is assumed that a diffusion pattern obtained by learning in advance so that the value of the cost function becomes smaller is stored for each channel.
  • a source vector having a shape similar to the shape of the actual noise source information (vector X in equation (4)) can be generated. It is possible to obtain higher quality synthesized speech than CEL using a vector generator as a noise codebook ⁇ Speech coding device ⁇ Decoding device.
  • the diffusion pattern storage / selection unit stores M diffusion patterns obtained by learning in advance so as to make the value of the cost function of Expression (7) smaller, for each channel.
  • M diffusion patterns obtained by learning it is not necessary for all VI diffusion patterns to be obtained by learning, and at least one diffusion pattern obtained by learning is used for each channel. By storing the types, it is possible to improve the quality of synthesized speech even in such cases.
  • the expression (4) is obtained from all combinations of diffusion patterns stored by the diffusion pattern storage / selection unit and all combinations of pulse vector position candidates generated by the pulse vector generation unit 6. )),
  • the combination number that maximizes the reference value is specified with a closed roof.
  • the same action and effect can be obtained by performing an open loop search.
  • FIG. 6 shows a functional block diagram of a CELP type speech coding apparatus according to the present embodiment.
  • a CELP speech coding apparatus using the sound source vector generation apparatus of the first embodiment as a noise codebook.
  • the spreading unit uses the value of the ideal adaptive code gain obtained before searching for the random codebook, and performs pre-selection of the spreading pattern stored in the spread pattern storage / selection unit.
  • Other than figure 4 is the same as the CELP-type speech coding apparatus of FIG. 4. Therefore, the description of the present embodiment will be directed to the vector quantization of noise source information in the CELP-type speech coding apparatus of FIG.
  • This CELP-type speech coding apparatus includes an adaptive codebook 407, an adaptive code gain weighting section 409, and a noise codebook 407 composed of the excitation vector generating apparatus described in the first embodiment.
  • noise code gain weighting section 410 noise code gain weighting section 410
  • synthesis filter 405 distortion calculation section 406
  • code number identification section 413 code number identification section 413
  • spreading pattern storage / selection section 415 pulse vector generation section It has 4 16, a pulse vector spreading section 4 17, a spreading vector adding section 4 18, and an adaptive gain judging section 4 19.
  • At least one of the M (T ⁇ 2) diffusion patterns stored in the diffusion pattern storage / selection unit 4 15 performs vector quantization of the noise source information. In order to reduce the quantization distortion that occurs at this time, it is learned in advance so that the diffusion pattern is obtained as a result of the learning:
  • the diffusion pattern obtained by the above learning is relatively short and has a pulse-like diffusion pattern, as shown in w ll in Fig. 3. I know that
  • the process of specifying the adaptive codebook number is performed before the vector quantization of the noise source information, so that the vector quantization process of the noise source information is performed.
  • the vector number adaptive code number
  • the ideal adaptive code gain tentatively determined
  • Preliminary selection of spreading pulse using ideal adaptive code gain value Specifically, first, immediately after the end of the adaptive codebook search, the ideal value of the adaptive code gain held in the code number identification section 4 13 is output to the distortion calculation section 4 06. 06 is to output the adaptive code gain received from the code number identification section 4 13 to the adaptive gain determination section 4 19
  • a control signal for preliminary selection is sent to the selection section 4 15-The content of the control signal is determined by the noise source information when the adaptive code gain is large in the above comparison.
  • the adaptive code gain is not large in the above magnitude comparison, it is instructed to select a diffusion pattern obtained by learning in advance so as to reduce the quantization distortion that occurs when the vector is quantized. Is instructed to preselect a diffusion pattern different from the diffusion pattern obtained as a result of learning.
  • the shape of the noise code vector becomes pulse-like when the value of the adaptive gain is large (when voicedness is strong), and becomes small when the value of adaptive gain is small (when voicedness is weak). Has a random shape. Therefore, it is possible to use noise code vectors of appropriate shapes for voiced sections and unvoiced sections of the voice signal, thereby improving the quality of synthesized speech.
  • the number N of channels in the pulse vector generation unit is 3, and the diffusion pulse per channel stored in the diffusion pattern storage / selection unit is stored.
  • the explanation was limited to the case where the number of types M is 2, the pulse vector Similar effects and effects can be obtained even when the number of channels in the generation unit and the number of diffusion patterns stored in the selection unit are different from those described above.
  • one type was the diffusion pattern obtained by the above learning, and the other type was a random pattern.
  • Embodiment 1 by configuring an audio signal communication system or an audio signal recording system including the audio encoding device, the operation and effect of the sound source vector generation device described in Embodiment 1 can be obtained.
  • FIG. 7 is a functional block diagram of a CE-to-P speech coding apparatus according to the present embodiment.
  • a CELP using the source vector generating apparatus of the first embodiment as a noise codebook is shown.
  • the diffusion pattern is stored using the information available at the time of vector quantization of the noise source information.Preliminary selection of multiple diffusion patterns stored in the selection unit.
  • the feature is to use the magnitude of the encoding distortion (expressed in SZN ratio) that occurs when the number of the book is specified.
  • the configuration is the same as that of the CELP-type speech coding apparatus in FIG. 4. Therefore, in the description of the present embodiment, the vector quantization process of the noise source information will be described in detail.
  • the CELP-type speech coding apparatus includes an adaptive codebook 507, an adaptive code gain weighting section 509, and a sound source vector described in the first embodiment.
  • At least one of the VI (l ⁇ 2) diffusion patterns stored by the diffusion pattern storage / selection unit 5 15 is a random pattern.
  • the number of channels N of the pulse vector generation unit is 3
  • the number of types of diffusion pulses per channel stored in the diffusion pattern storage and selection unit M is 2
  • the adaptive codebook number identification processing is performed before the vectorization processing of the noise source information. Therefore, the vector quantization processing of the noise source number is performed.
  • the adaptive codebook vector number adaptive code number
  • ideal adaptive code gain provisionally determined
  • the target vector for adaptive codebook search can be referenced.
  • the coding distortion of the adaptive codebook that can be calculated from the above three information (expressed in SZN ratio) Perform preliminary selection of diffusion pattern using
  • the value of the adaptive code number and the adaptive code gain (ideal gain) held in the code number specifying section 513 is output to the distortion calculating section 506.
  • the distortion calculation unit 506 uses the adaptive code number and adaptive code gain received from the code number identification unit 5 13 and the target vector for adaptive codebook search to determine the adaptive codebook number. Calculate the resulting coding distortion (SZN ratio). Output the calculated S / N ratio to the distortion power determination unit 519.
  • the distortion power determination unit 519 first receives from the distortion calculation unit 506 Next, the distortion pattern determination unit 519 uses the diffusion pattern storage and selection unit 515 based on the result of the above-mentioned magnitude comparison to perform preliminary selection. Send the control signal of the control signal.
  • the shape of the noise code vector is When the S / N ratio is high, the shape becomes pulse-like, and when the SZN ratio is low, the shape becomes random.Therefore, the shape of the noise code vector changes according to the short-time characteristics of the speech signal. Can improve the quality of synthesized speech.
  • the number N of channels in the pulse vector generation unit is 3, and the number of channels per channel stored in the diffusion pattern storage / selection unit is large.
  • the explanation was limited to the case where the number of types of scattered pulses I was 2, the same applies to the case where the number of channels of the pulse vector generator and the number of types of diffusion patterns per channel are different from the above description. Effect ⁇ action is obtained,
  • the case of a random pattern has been described, but if at least one type of random pattern diffusion pattern is stored for each channel, similar effects can be obtained even in cases other than the above. Action can be expected.
  • FIG. 8 shows functional blocks of a CE-to-P speech coding apparatus according to a fifth embodiment of the present invention.
  • an LPC The PC coefficient is obtained by performing autocorrelation analysis and LPC analysis on the data 6001.Also, the obtained LPC code is obtained by encoding the obtained PC coefficient, and the obtained LPC code is decoded. To obtain the decoded LPC coefficients
  • the sound source creation unit 602 the sound source samples stored in the adaptive codebook 603 and the noise codebook 604 (the adaptive code vector (or adaptive sound source) and the noise code vector (or , Noise sources) and send them to the LPC synthesis unit 6 0 5
  • the LPC synthesis section 605 filters the two sound sources obtained by the sound source creation section 602 with the decoded LPC coefficients obtained by the LPC analysis section 600 to obtain two synthesized sounds.
  • the comparison unit 606 analyzes the relationship between the two synthesized sounds obtained by the LPC synthesis unit 605 and the input speech 601 to find the optimum value (optimum gain) of the two synthesized sounds, The synthesized voices whose power has been adjusted by the optimum gain are added to obtain a synthesized voice, and the distance between the synthesized voice and the input voice is calculated.
  • the obtained optimal gain, the indices of the sound source samples, and the two sound sources corresponding to the indices are sent to the parameter encoding unit 607.
  • the parameter coding unit 607 obtains the gain code by performing the coding of the optimum gain ′), and sends the LPC code and the index of the excitation sample to the transmission line 608 collectively.
  • an actual sound source signal is created from two sound sources corresponding to the gain code and the index, and stored in the adaptive codebook 603, and at the same time, old sound source samples are discarded.
  • the LPC synthesis unit 605 generally uses an audibility weighting filter using a linear prediction coefficient, a high-frequency emphasis filter, and a long-term prediction coefficient (obtained by performing a long-term prediction analysis of the input speech).
  • sound source search for the adaptive codebook and the random codebook is generally performed in sections (subframes) obtained by further dividing the analysis section,
  • Figure 9 shows the vector quantization algorithm executed by the LPC analyzer 600. 2 shows functional blocks for implementing the system.
  • the vector quantization block shown in FIG. 9 is composed of a target extraction unit 702, a quantization unit 703, a distortion calculation unit 704, a comparison unit 705, and a decoding vector storage unit 70. 7, consisting of a solid-state smoothing unit 708
  • the target extraction unit 702 calculates a quantization target based on the input vector 701.
  • a ⁇ vector '' is a target composed of two types of vectors, a parameter vector obtained by analyzing the frame to be encoded and a parameter vector obtained in the same way from one future frame.
  • the extracting unit 702 calculates the quantization target using the above input vector and the decoding vector of the previous frame stored in the decoding vector storage unit 707.Example of calculation method Is given by equation (8)
  • n Code vector number
  • the decoding vector of the preceding frame as d (i), the future parameter Tabeku Torr and S t i (i) (actually Shi desirable decoding vector of the future bur, in the current frame
  • the coding vector cannot be encoded, so the parameter vector is used instead.
  • the code vector C n (i): (1) is replaced with the parameter vector S, (i) rather than the code vector C n (i): (2). Close, but in fact C n (i): (2) is closer to the line connecting (1 (i) and S t (i), so deterioration is less audible than C n (i): (1).
  • the target X (i) is a vector at a position somewhat closer to the midpoint of d (i) and (i) from St (i), then The vector is audibly guided in the direction with less distortion.
  • the movement of the target is realized by introducing the following evaluation formula (9).
  • the first half of equation (10) is the evaluation equation for general vector quantization, and the second half is the component of auditory weights.
  • the evaluation equation is differentiated for each X (i). Then, assuming that the differentiated value is 0, Equation (8) is obtained.
  • the weighting coefficient p is a positive constant, and when it is 0, it is the same as general vector quantization, and when it is infinite, the target is completely at the midpoint.
  • frame parameter vector S t (i) power et al would far apart, perceptual intelligibility decreases by listening experiments decodes speech, obtained good performance at 0.5 rather rather p 1. 0 Make sure you can.
  • the quantization section 703 the quantization target obtained in the target extraction section 702 is quantized to obtain a code of the vector, a decryption vector is obtained, and the distortion calculation section 704 together with the code is obtained.
  • prediction vector quantization is used as a quantization method. The prediction vector quantization will be described below.
  • Fig. 11 shows the functional blocks of prediction vector quantization.
  • Prediction vector quantization performs prediction using vectors (synthetic vectors) obtained by encoding and decoding in the past. This is an algorithm that vector-quantizes the prediction error.
  • a vector codebook 800 containing a plurality of core samples (code vectors) of prediction error vectors must be created in advance. This is generally obtained by analyzing a large amount of voice data.
  • the LBG algorithm IEEE TRANSACT I ONS ON CO UNIC AT I ON S, VOL. COM-28, NO. 1, PP 84-95, J ANUARY 1980
  • the prediction unit 802 predicts the vector 801 of the quantization target.
  • the prediction is performed using the past synthesized vector stored in the state storage unit 803.
  • the prediction error vector is sent to the distance calculation unit 804.
  • the prediction is performed using a fixed coefficient with a prediction order of 1.-The prediction error vector calculation using this prediction Is given by the following equation (11):
  • the prediction coefficient / 3 is 0 and the value of ⁇ ⁇ 1.
  • the prediction error vector obtained in the prediction section 802 and the prediction error vector The distance formula to calculate the distance from the code vector stored in the vector codebook 800 is shown in the following formula (1 2).
  • n Code vector number
  • the search unit 805 compares the distance with each code vector, and outputs the code number of the code vector having the shortest distance as the code 806 of the vector. That is, the control unit controls the vector codebook 800 and the distance calculation unit 800, and sets the code having the smallest distance among all the code vectors stored in the vector codebook 800. Find the vector number, and use this as the vector code 8 06
  • the vector is obtained by using the code vector obtained from the vector codebook 800 based on the final code and the past decryption vector stored in the state storage unit 8003. Then, the content of the state storage unit 803 is updated using the obtained composite vector. Therefore, when the next encoding is performed, the vector decoded here is used as a predictor. Used for
  • a decoder performs decoding by obtaining a code vector based on the transmitted vector code.
  • the decoder has the same vector codebook and state storage unit as the encoder in advance. Prepare and perform decoding with the same algorithm as the decoding function of the search unit in the above encoding algorithm The above is the vector quantization executed in the quantization unit 703.
  • the distortion calculating section 704 the decoding vector, the input vector 701 and the decoding vector storing section 707 obtained in the quantizing section 703 are stored.
  • the following equation (14) shows the calculation formula for calculating the perceptual weighting coding distortion from the decoding vector of the previous frame.
  • V (i) decryption vector
  • the weighting coefficient p is the same as the coefficient of the target calculation formula used in the target extraction unit 720, and the value of the weighted coding distortion, the decoding vector and the vector Send the sign of the torque to the comparator 7 0 5:
  • the comparing section 705 sends the code of the vector sent from the distortion calculating section 704 to the transmission path 608, and further decodes using the decoding vector sent from the distortion calculating section 704.
  • the present invention is applicable not only to voice coding but also to a tone coding apparatus. It can also be used for vector quantization of parameters with relatively good interpolability in image coding devices.
  • the LPC encoding in the LPC analysis unit in the above algorithm is usually converted into an easy-to-encode parameter vector such as LSP (line vector pair), and the Euclidean distance or Euclidean distance with weight is converted. It is common to use vector quantum (VQ) by Also, in the present embodiment, the target extraction unit 702 receives the control of the comparison unit 705 and sends the input vector 701 to the vector smoothing unit 708, and the vector smoothing unit 702 The target extraction unit 7 0 2 receives the input vector changed in 8 and re-extracts the target
  • the comparing section 705 compares the value of the weighted coding distortion sent from the distortion calculating section 704 with the reference value prepared in the comparing section ⁇ .
  • the code of the vector sent from the distortion calculator 704 is sent to the transmission path 606, and further, decoding is performed using the decoding vector sent from the distortion calculator 704.
  • Update the contents of the decryption vector storage unit 707 This update is performed by rewriting the contents of the decryption vector storage unit 707 with the obtained decryption vector. Shift processing to parameter encoding 3
  • the vector smoothing unit 708 is controlled to change the input vector, and the target extracting unit 702, the quantizing unit 703, and the distortion calculating unit 7 are changed.
  • the encoding process is repeated until the value becomes less than the reference value in the comparison unit 70 ⁇ .However, the number of times may not be less than the reference value even if it is repeated many times.
  • the comparison unit 705 has a counter 1 internally, counts the number of times that the value is determined to be equal to or more than the reference value, stops the coding repetition when the number reaches a certain value or more, and performs processing when the value is less than the reference value and the counter. Clear-
  • the input vector obtained from the target extraction unit 702 and the input vector obtained from the decoding vector storage unit 707 are obtained.
  • the parameter vector S, (i) of the current frame, which is one of the input vectors is changed by the following equation (15), and the changed input vector Torr is sent to the target extraction unit 70 2.
  • the above q is a smoothing coefficient, and is a code representing the degree to which the parameter vector of the current frame approaches the middle point of the decoding vector of the previous frame and the parameter vector of the future frame. It has been confirmed from experiments that good performance is obtained when the upper limit value of the number of repetitions inside the comparison unit 705 is 5 to 8 times at 0.2 ⁇ q ⁇ 0.4.
  • prediction vector quantization is used for quantization section 703.
  • the weighted coding distortion obtained in distortion calculation section 704 is likely to be small by the above-described smoothing. , Because the quantization target is closer to the decoding vector of the previous frame due to the smoothing. Therefore, by repeating the coding under the control of the comparator 705, the reference of the distortion of the comparator 705 is compared. The likelihood of becoming less than
  • a decoding unit corresponding to the quantization unit of the encoder is prepared in advance, and decoding is performed based on the vector code transmitted from the transmission path.
  • the present embodiment was applied to quantization of LSP parameters (the quantizer is predictive VQ) appearing in CELP coding, and speech coding and decoding experiments were performed. It was confirmed that not only the sound quality could be improved, but also the objective value (SZN ratio) could be improved. This was because the vector was smoothed by repeating the encoding with vector smoothing. This is because the coding distortion of the predicted VQ can be suppressed even in the case of a drastic change.- .. The conventional predicted VQ is used to predict the speech at the beginning of the speech, etc. The vector distortion had a disadvantage that the vector distortion of the part where the vector changed abruptly became rather large.However, when this embodiment was applied, if the distortion was large, smoothing was performed until the distortion was reduced.
  • the objective value can be improved by repeating smoothing + coding until the coding distortion is reduced.
  • the present invention is not limited to voice coding, but also includes a musical sound coding device and the like. It can also be used for vector quantization of parameters with relatively good interpolability in an image coding device-(sixth embodiment)
  • CELP-type speech coding apparatus according to a sixth embodiment of the present invention will be described.
  • This embodiment is directed to a quantization algorithm of a quantization unit that uses multi-stage predictive vector quantization as a quantization method. Except for the above, the other configuration is the same as that of the fifth embodiment described above. That is, the excitation vector generating apparatus of the first embodiment described above is used as the noise codebook.
  • the quantization algorithm of the quantization unit is explained in detail.
  • Figure 12 shows the functional blocks of the quantization unit:
  • the codebook is quantized using the quantized target codeword.
  • coding distortion vector To calculate the difference between the coded vector and the original target (referred to as coding distortion vector), and further quantize the obtained coding distortion vector.
  • a vector codebook 899 and a vector codebook 900 containing multiple core samples (code vectors) of the prediction error vector are created. Is created by applying the same algorithm as the typical “multi-stage vector quantization” codebook creation method to the prediction error vector for learning. Many obtained Based on the vector, the LBG algorithm (IEEETRANS ACTION ON S ON C OMMUN I CAT IONS, VOL. COM—28, NO. 1, PP 84-95, J ANU ARY 198 However, the training population of the vector codebook 899 is a set of many quantization targets, but the training population of the vector codebook 900 is This is a set of coding distortion vectors when the quantization is performed on the quantization target using the vector codebook 899.
  • prediction is performed by the prediction unit 902 on the quantization target vector 901 using the past synthesized vector stored in the state storage unit 903.
  • the obtained prediction error vector is sent to the distance calculation unit 90.4 and the distance calculation unit 905.
  • a prediction is performed using a fixed coefficient with a prediction order of 1.
  • the equation for calculating the prediction error vector when this prediction is used is shown in the following equation (16). ..
  • the prediction coefficient is generally 0 and a value of ⁇ ⁇ 1.-
  • the distance calculation section 904 the prediction error vector and the vector obtained by the prediction section 902 are calculated. Calculate the distance from the code vector ⁇ stored in the toll codebook 8 9 9. The formula of the distance is shown in the following formula (17). E n: Distance from the nth code vector A
  • n Code vector A number
  • the search unit 906 compares the distances with the respective code vectors A, and sets the number of the code vector A having the smallest distance as the code of the code vector A. That is, it controls the vector codebook 899 and the distance calculation unit 904, and makes the code vector having the smallest distance among all the code vectors stored in the vector codebook 899.
  • the code of code vector A is obtained as the code of code vector A, and the code of code vector A and the decoding vector obtained from vector code book 8999 with reference to this are obtained.
  • the distance calculation unit 905 obtains a coding distortion vector from the prediction error vector and the decoding vector A obtained from the search unit 906, and obtains a coding distortion vector from the search unit 906.
  • an amplitude is obtained from the amplifier storage unit 908, and the coding distortion vector and the code stored in the vector codebook 900 are obtained.
  • the formula of the distance is shown in the following formula (18).
  • Em ⁇ (Z (/)-aNC2 (i)) 2 (1 8)
  • the search unit 907 compares the distance from each code vector B and sets the code vector B number having the smallest distance as the code of the code vector B, that is, the vector codebook 9 By controlling 0 0 and the distance calculation section 9 05, the number of the code vector B having the shortest distance among all the code vectors B stored in the vector code book 900 is obtained. Let this be the code of code vector B, and add the code of code vector A and code vector B to obtain the code 909 of the vector.
  • search section 907 further includes decoding vectors A and B obtained from vector codebook 899 and vector codebook 900 based on the codes of code vectors A and B, and an amplifier.
  • the vector is decrypted using the amplitude obtained from the storage unit 908 and the past decryption vector stored in the state storage unit 903, and the obtained composite vector is used. Update the contents of the state storage unit 93 (therefore, when performing the next encoding, the vector decoded here is used for prediction). Prediction of this embodiment (prediction order 1st, fixed The decoding of the coefficient is performed by the following equation (19).
  • Z (i) C1N (i) + aN.C2M (i) + j3D (i) (19) Z (i): decoding vector (D (i) at the next encoding N: code of the vector A
  • the amplitude stored in the amplifier storage unit 908 is set in advance, but the setting method is described below.
  • the amplifier encodes many audio data, and the first stage The sum of the coding distortions of the following equation (2 0) is obtained for each code of the code vector, and learning is performed to minimize this.
  • the distortion of the above equation (20) is set again so that the value obtained by differentiating the distortion with each ambiguity becomes zero, so that the learning of the ambiguity is performed.
  • the most suitable amplifier Find the value of the magnitude
  • the decoder decodes by finding the code vector based on the code of the transmitted vector.
  • the decoder uses the same vector codebook (code vector A, B), an amplifier storage unit, and a state storage unit, and perform decoding with the same algorithm as the decoding function of the search unit (corresponding to code vector B) in the above encoding algorithm.
  • the encoding distortion can be further reduced by adapting the second-stage code vector to the first-stage with a relatively small amount of calculation due to the features of the amplifier storage unit and the distance calculation unit.
  • the present invention is applicable not only to voice coding but also to a sound coding device and an image coding device. It can also be used for vector quantization of parameters with relatively good interpolability in the encoding device.
  • the present embodiment is directed to a coding method capable of reducing the amount of code search computation when using an ACELP type noise codebook.
  • a device Is an example of a device,
  • FIG. 13 shows a functional block diagram of a CELP-type speech coding apparatus according to the present embodiment.
  • a filter coefficient analysis section ⁇ 0 0 2 obtains the coefficients of the synthesis filter by performing a linear prediction analysis or the like, and outputs the obtained coefficients of the synthesis filter to the filter coefficient quantization unit 1003. Then, the input coefficients of the synthesis filter are quantized and output to the synthesis filter 104.
  • the synthesis filter 100 4 is constructed by the filter coefficient supplied from the filter coefficient quantization unit 100 3, and the adaptive vector 1 0 0 6 which is the output from the adaptive codebook 100 5. Multiplied by the adaptive gain 1 0 7 and the noise vector 1 0 9 output from the noise codebook 1 0 8
  • the adaptive codebook 1005 is driven by an excitation signal 1 0 1 1 obtained by adding the product of the multiplication and the multiplication result. Is a codebook that stores a plurality of noise vectors, and the noise codebook 1007 is a codebook that stores the noise vector of the first embodiment. It is possible to use a sound source vector generation device in a form.
  • the distortion calculation unit 1013 calculates the distortion between the synthesized speech signal 1002, which is the output of the synthesis filter 1004 driven by the excitation signal 1011, and the input speech signal 1001. Is calculated, and the code search process is performed.
  • the code search process is defined as the number of the adaptive vector 1006 for minimizing the distortion calculated by the distortion calculator 1013 and the noise vector 10 At the same time as specifying the number of 09, the output value is multiplied by each output vector. The optimum value of the adaptive gain 1 0 7 and the noise gain 1 0 10 is calculated.
  • the quantization value of the filter coefficient obtained from the quantization unit 1003 and the number of the adaptive vector 1006 selected in the distortion calculation unit 101 and the noise vector 1009 Number and multiply by each Adaptive gain 1 0 7 and noise gain 1 0 9 9 are encoded and output from code output section 1 0 1 4 Is transmitted or stored.
  • the code search processing in the distortion calculation unit 101 usually, first, a search for an adaptive codebook component in the excitation signal is performed, and then a search for a noise codebook component in the excitation signal is performed.
  • the search for the noise codebook component uses an orthogonalization search described below.
  • Target signal (the difference between the input audio signal and the zero input response of the synthesis filter)
  • Orthogonalization search orthogonalizes the candidate noise vectors for the adaptive vector specified in advance, and identifies one that minimizes distortion from multiple orthogonalized noise vectors. This is a mining method, which has the characteristic that the accuracy of noise vector identification can be improved compared to non-orthogonalization search, and the quality of synthesized speech signals can be improved.
  • the noise vector is composed of only a small number of pulses with polarity.
  • the numerator (Nort) of the search reference value expressed by equation (21) can be calculated.
  • the calculation of the numerator can be reduced by transforming into the following equation (22).
  • Eq. (22) If the value of ⁇ in Eq. (22) is calculated in advance as a preprocessing and expanded into an array, Eq. (2 1) Can be calculated by performing signed addition of (N-1) elements of the array ⁇ ⁇ and squaring the result
  • FIG. 14 shows the functional blocks of the distortion calculation unit 101. Note that the speech coding apparatus according to the present embodiment uses the adaptive vector 1006 and the noise vector 1009 in the configuration of FIG. This is a configuration for inputting to the distortion calculator 1013.
  • Fig. 14 the following three processes are performed as pre-processing when calculating distortion for the input noise vector.
  • Equation (2 1) the denominator term (Dort) in Equation (2 1) can be expanded as in Equation (23).
  • Equation (2 1) the method of calculating the denominator term (D ort) when calculating the search reference value (Eort) of Equation (2 1) is replaced by Equation (2 3), and the noise codebook component can be reduced with less computation. Be able to identify
  • the denominator term is calculated using the matrix L obtained by the above preprocessing and the noise vector 10009.
  • the sampling frequency of the input audio signal is 8000 Hz
  • the unit time width (frame time) for searching for the A1 gebraic structure noise codebook is 10 ms
  • the noise vector is 5 unit pulses per 10 ms (+ The method of calculating the denominator term based on Equation (2 3) for the case where it is created by the regular combination of 1-1) will be described.
  • the noise vector candidate c can be described by the following equation (24).
  • the denominator term (Dort) represented by the equation (23) can be obtained by the following equation (25).
  • the numerator (Nort) of the code search reference value of Expression (2 1) can be calculated by Expression (2 2), while the denominator (Dort) ) Can be calculated by equation (25). Therefore, when ACE is used and the P-type noise codebook is used, the numerator of the equation (2 1) is not calculated as it is.
  • the term is calculated by equation (2 2), and the denominator term is calculated by equation (2 5), which makes it possible to greatly reduce the amount of code search operations.
  • Equation (22) is calculated for the noise vector narrowed down to a plurality of candidates by the preliminary selection, and the present invention is applied to the case where the noise vector that maximizes the value is fully selected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Analogue/Digital Conversion (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Stereophonic System (AREA)

Description

明 細 書 音声符号化装置及び音声復号化装置 技術分野
本発明は、 音声情報を効率的に符号化及び復号化するための音声符号化装 置及び音声復号化装置に関する。 背景技術
現在、 音声情報を効率的に符号化及び復号化するための音声符号化技術が 開発されてレ、る -, Code Excited Linear Prediction: "High Quality Speech at Low Bit Rate", M. R. Schroeder, Proc. ICASSP'85, pp.937-940 には、 る音声符号化技術に基づいた C E L P型の音声符号化装置が記載されている-, この音声符号化装置は、 入力音声を一定時間で区切ったフレーム毎に線形予 測し、 フレーム毎の線形予測により予測残差 (励振信号) を求め、 この予測 残差を過去の駆動音源が格納された適応符号帳と複数の雑音符号べク トルが 格納された雑音符号帳とを用いて符号化する,
図 1に従来の C E L P型音声符号化装置の機能プロックを示す-.,
この C E L P型音声符号化装置に入力された音声信号 1 1が線形予測分析 部 1 2で線形予測分析される この線形予測分析により線形予測係数が得ら れる-. 線形予測係数は、 音声信号 1 1 の周波数スベタ トルの包絡特性を表す パラメータである 線形予測分析部 1 2で得られた線形予測係数は、 線形予 測係数符号化部 1 3において量子化され、 量子化された線形予測係数が線形 予測係数復号化部 1 4へ送られる なお、 量子化によって得られる量子化番 号は、 線形予測符号として符号出力部 2 4へ出力される, 線形予測係数復号 化部 2 4は、 線形予測係数符号化部 1 3で量子化された線形予測係数を復号 化して合成フィルタの係数を得る, 線形予測係数複号化部 2 4は合成フィル タの係数を合成フィルタ 1 5へ出力する,
適応符号帳 1 7は、 適応符号べク トルの候捕を複数種類出力する符号帳で あり、 駆動音源を過去の数フレーム分だけ格納するバッファによつて構成さ れる.、 適応符号べク トルは、 入力音声内の周期成分を表現する時系列べク ト ルである
雑音符号帳 1 8は、 雑音符号べク トルの候補を複数種類 (割り当てられた ビット数に対応する種類) 格納した符号帳である 雑音符号べク トルは、 入 力音声内の非周期成分を表現する時系列べク トルである。
適応符号ゲイン重み付け部 1 9および雑音符号ゲイン重み付け部 2 0は、 適応符号帳 1 7および雑音符号帳 1 8から出力される候補べク トルそれぞれ に対して、 重み符号帳 2 1から読みだした適応符号ゲインと雑音符号ゲイン をそれぞれ乗じ、 加算部 2 2へ出力するつ
重み符号帳とは、 適応符号べク トル候補に乗じる重みと、 雑音符号べク ト ル候補に乗じる重みをそれぞれ複数種類 (割り当てられたビッ ト数に対応す る種類) ずつ格納したメモリである
加算部 2 2は、 適応符号ゲイン重み付け部 1 9、 雑音符号ゲイン重み付け 部 2 0においてそれぞれ重み付けられた適応符号べク トル候補と雑音符号べ クトル候補とを加算して駆動音源べク トル候補を生成し、 合成フィルタ 1 5 へ出力する
合成フィルタ 1 5は、 線形予測係数復号化部〗 4で得られた合成フィルタ の係数によって構成される全極型フィルタである-, 合成フィルタ 1 5では、 加算部 2 2からの駆動音源べク トル候補が入力すると、 合成音声べク トル候 補を出力する機能を有している
歪み計算部 1 6は、 合成フィルタ 1 5の出力である合成音声べク トル候捕 と入力音声 1 1 との歪みを計算し、 得られた歪みの値を符号番号特定部 2 3 に出力する-, 符号番号特定部 2 3は、 歪み計算部〗 6で算出する歪みを最小 化するような 3種類の符号番号 (適応符号番号、 雑音符号番号、 重み符号番 号) を、 3種類の符号帳 (適応符号帳、 雑音符号帳、 重み符号帳) それぞれ について特定する, そして、 符号番号特定部 2 3で特定された 3種類の符号 番号は、 符号出力部 2 4 へ出力される。 符号出力部 2 4は、 線形予測係数符 号化部 1 3で得られた線形予測符号番号と、 符号番号特定部 2 3で特定され た適応符号番号、 雑音符号番号、 重み符号番号をまとめて、 伝送路へ出力す る。
図 2に上記符号化装置で符号化された信号を復号化する C E L P型音声復 号化装置の機能ブロックを示す この音声復号化装置では、 符号入力部 3 1 力 \ 音声符号化装置 (図 1 ) から送信された符号を受信し、 受信した符号を 線形予測符号番号、 適応符号番号、 雑音符号番号、 重み符号番号に分解し、 分解して得られた符号をそれぞれ、 線形予測係数複号化部 3 2、 適応符号帳 3 3、 雑音符号帳 3 4、 重み符号帳 3 5へ出力するつ
次に、 線形予測係数復号化部 3 2が符号入力部 3 1で得られた線形予測符 号番号を復号化して合成フィルタの係数を得、 合成フィルタ 3 9 へ出力する-. そして、 適応符号帳内の適応符号番号と対応する位置から適応符号ベク トル が読みだされ、 雑音符号帳から雑音符号番号と対応する雑音符号べク トルが 読みだされ、 さらに、 重み符号帳から重み符号番号と対応した適応符号ゲイ ンと雑音符号ゲインが読みだされる, そして、 適応符号ベク トル重付け部 3 6において、 適応符号べク トルに適応符号ゲインが乗じられ加算部 3 8へと 送られる。 また同様に、 雑音符号ベク トル重付け部 3 7において、 雑音符号 べク トルに雑音符号ゲインが乗じられ加算部 3 8 へ送られる
加算部 3 8は、 上記 2つの符号べク トルが加算して駆動音源べク トルを生 成し、 生成された駆動音源はバッファ更新のために適応符号帳 3 3 へ、 また、 フィルタを駆動のために合成フィルタ 3 9へと送られる, 合成フィルタ 3 9 は、 加算部 3 8で得られた駆動音源べク トルで駆動され、 線形予測係数復号 化部 3 2の出力を用いて合成音声を再生する—,
なお、 C E L P型音声符号化装置の歪み計算部 1 6では、 一般に、 次の数 式 (式 (1 ) ) により求められる歪み Eが計算される.
E = II V - (gallP+gcIIC) (1)
V :入力音声信号 (べク トル)
H:合成フィルタのインパルス応答畳み込み行列
Figure imgf000006_0001
ただし、 hは合成フィルタのインパルス応答 (ベク トル) 、 Lはフレーム長
P :適応符号べク トル
c :雑音符号べク トル
g a :適応符号ゲイン
R c :雑音符号ゲイン
ここで、 数式 ( 1 ) の歪み を最小化するためには、 適応符号番号、 雑音 符号番号、 重み符号番号の全組合せについて閉ループで歪みを算出し、 各符 号番号を特定する必要がある-,
しかし、 数式 い) について閉ループ探索すると演算処理量が大きくなり すぎるため、 一般的には、 まず、 適応符号帳を用いてベク トル量子化により 適応符号番号を特定し、 次に雑音符号帳を用いたベタ トル量子化により雑音 符号番号を特定し、 最後に、 重み符号帳を用いたベク トル量子化により重み 符号番号を特定する. ここでは、 この場合について、 雑音符号帳を用いたベ クトル量子化処理をさらに詳しく説明する
適応符号番号および適応符号ゲインが、 先にもしくは暫定的に決まってい る場合には、 数式 (1 ) の歪み評価式は次の数式 (2 ) に変形されるつ E c = II x-gcIIC II 2 (2)
ただし、 数式 (2 ) 内のベク トル xは、 先にもしくは暫定的に特定した適 応符号番号と適応符号ゲインを用いた、 次の数 3によって求められる雑音音 源情報 (雑音符号番号特定用のターゲットべク トル) であるつ
x=v-gaHP (3)
g a :適応符号ゲイン
V :音声信号 (べク トル)
H:合成フィルタのインパルス応答畳み込み行列
P :適応符号べク トル
雑音符号番号を特定した後に雑音符号ゲイン gc を特定する場合には、 数式 ( 2 ) 内の gc が任意の値をとり得ると仮定できるので、 数式 (2 ) を最小化 する雑音符号べク トルの番号を特定する処理 (雑音音源情報のべク トル量子 化処理) は、 次の数式 (4 ) の分数式を最大化する雑音符号べク トルの番号 特定に置き換えられることが一般に知られている-,
Figure imgf000007_0001
すなわち、 適応符号番号および適応符号ゲインが前もってもしくは暫定的 に特定されている場合、 雑音音源情報のベタ トル量子化処理とは、 歪み計算 部 1 6で算出する数式 (4 ) の分数式を最大化する雑音符号べク トル候補の 番号を特定する処理となる-,
初期の C E L P型符号化装置/復号化装置では、 割り当てられたビット数 に対応する種類のランダム数列をメモリに格納したものが雑音符号帳として 用いられていた, しかし、 非常に多くのメモリ容量が必要になるとともに、 雑音符号べク トル候捕それぞれについて数式 (4 ) の歪みを計算するための 演算処理量が膨大になるという課題があつた-, この課題を解決する一方法としては、 "8KBIT/S ACELP CODING OF SPEECH WITH 10 MS SPEECH-FRAME: A CANDIDATE FOR CCITT STANDARDIZATION": R. Salami, C. Laflamme, J-P. Adoul, ICASSP'94, pp.II-97〜II-100, 1994 などに記載されるように、 代数的に音源ベク トルを 生成する代数的音源べク トル生成部を用いた C E L P型音声符号化装置 Z復 号化装置が挙げられる。
しかしながら、 上記代数的音源生成部を雑音符号帳に用いた C E L P型音 声符号化装置 Z復号化装置では、 数式 (3 ) によって求めた雑音音源情報 (雑 音符号番号特定用のターゲット) を、 少数本のパルスで常に近似表現してい るため、 音声品質の向上を図る上で限界がある. ·, このことは、 数式 (3 ) の 雑音音源情報 Xの要素を実際に調べると、 それが少数本のパルスだけによつ て構成される場合がほとんどないことから明らかである -, 発明の開示
本発明は、 音声信号を実際に分析した時に得られる音源べク トルの形状と、 統計的に類似性の高い形状の音源べク トルを生成することができる新たな音 源べク トル生成装置を提供することを目的とする,
また本発明は、 上記音源べク トル生成装置を雑音符号帳として用いること で、 代数的音源生成部を雑音符号帳として用いる場合より品質の高い合成音 声を得ることが可能な C E L P音声符号化装置ノ復号化装置、 音声信号通信 システム、 音声信号記録システムを提供することを目的とする-,
本発明の第 1の態様は、 べク トル軸上のある 1要素に極性付き単位パルス が立ったパルスベク トルを生成するチャネルを N個 (N≥ l ) 備えたパルス ベク トル生成部と、 前記 N個のチャネルごとに M種類 (VI≥ 1 ) の拡散パタ ンを格納する機能と、 格納した VI種類の拡散バタンからある 1種類の拡散パ タンを選択する機能とを併せ持つ拡散パタン格納 ·選択部と、 前記パルスべ ク トル生成部から出力されるバルスベタ トルと前記拡散パタン格納 ·選択部 から選択される拡散パタンとの重畳演算をチャネルごとに行い、 N個の拡散 べク トルを生成する機能を有するバルスベタ トル拡散部と、 前記パルスべク トル拡散部により生成される N個の拡散べク トルを加算して音源べク トルを 生成する機能を有する拡散べク トル加算部とを備えることを特徴とする音源 ベク トル生成装置であり、 上記バルスペク トル生成部に、 N個 (N≥ l ) の パルスベク トルを代数的に生成する機能をもたせること、 さらに、 上記拡散 パタン格納 ·選択部が、 実際の音源べク トルの形状 (特性) を予め学習する ことによって得られた拡散パタンを格納しておくことによって、 従来の代数 的音源生成部よりも、 実際の音源べク トルの形状によく類似した形状の音源 べク トルを生成することが可能になる
また本発明の第 2の態様は、 上記の音源べク トル生成装置を雑音符号帳に 用いることを特徴とする C E L P音声符号化装置 Z復号化装置であり、 従来 の代数的音源生成部を雑音符号帳に用いた音声符号化装置 Z復号化装置より も、 より実際の形状に近い音源ベク トルを生成することができ、 よって、 よ り品質の高 、合成音声を出力することが可能な音声符号化装置 Z復号化装置、 音声信号通信システム、 音声信号記録システムが得られる- 図面の簡単な説明
図 1は、 従来の C E L P型の音声符号化装置の機能ブロック図
図 2は、 従来の C E L P型の音声復号化装置の機能ブロック図
図 3は、 本発明の第 1の実施の形態にかかる音源べク トル生成装置の機能 ブロック図
図 4は、 本発明の第 2の実施の形態にかかる C E L P型音声符号化装置の 機能ブロック図
図 5は、 本発明の第 2の実施の形態にかかる C E L P型音声復号化装置の 機能ブロック図
図 6は、 本発明の第 3の実施の形態にかかる C E L P型音声符号化装置の 機能プロック図
図 7は、 本発明の第 4の実施の形態にかかる C E L P型音声符号化装置の 機能ブロック図
図 8は、 本発明の第 5の実施の形態にかかる C E L P型音声符号化装置の 機能ブロック図
図 9は、 第 5の実施の形態におけるベタトル量子化機能のブロック図 図 1 0は、 第 5の実施の形態におけるターゲット抽出のアルゴリズムを説 明するための図
図 1 1は、 第 5の実施の形態における予測量子化の機能ブロック図 図 1 2は、 第 6の実施の形態における予測量子化の機能ブロック図 図 1 3は、 第 7の実施の形態における C E L P型音声符号化装置の機能ブ ロック図、 及び
図 1 4は、 第 7の実施の形態における歪み計算部の機能ブロック図であるつ 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 図面を用いて説明する-
(第 1の実施の形態)
図 3に本実施の形態にかかる音源べク トル生成装置の機能プロックを示す, この音源べク トル生成装置は、 複数のチャネルを有するパルスべク トル生成 部 1 0 1 と、 拡散パタン格納部とスィッチとを有する拡散パタン格納 ·選択 部 1 0 2と、 パルスべク トルを拡散するパルスべク トル拡散部 1 0 3と、 拡 散された複数チャネルのパルスべク トルを加算する拡散べク トル加算部 1 0 4とを備える。
パルスべク トル生成部 1 0 1は、 べク トル軸上のある 1要素に極性付き単 位パルスが配置されたべク トル (以下: バルスべク トルと呼ぶ) を生成する チャネルを N個 (本実施の形態では、 N == 3の場合について説明する) 備え ている 拡散パタン格納 ·選択部 1 0 2は、 チャネルごとに VT種類 (本実施の形態 では、 M = 2の場合について説明する) の拡散バタンを格納する格納部 M l 〜M 3と、 個々の格納部 VI I〜VI 3から VI種類の拡散パタンからある 1種類 の拡散パタンをそれぞれ選択するスィ ツチ S W 1〜S W 3とを有する, パルスべク トル拡散部 1 0 3は、 パルスべク トル生成部 1 0 1から出力さ れるパルスべク トルと拡散パタン格納 ·選択部 1 0 2から出力される拡散パ タンとの重畳演算をチャネルごとに行い、 N個の拡散べクトルを生成する 拡散べク トル加算部 1 0 4は、 パルスべク トル拡散部 1 0 3で生成される N個の拡散べク トルを加算して音源べク トル 1 0 5を生成する—,
なお、 本実施の形態では、 パルスべク トル生成部 1 0 1力 下記の表 1記 載の規則に従って N個 (N = 3 ) のパルスべク トルを代数的に生成する場合 について説明する
表 1
Figure imgf000011_0001
以上のように構成された音源べク トル生成装置の動作について説明する 拡散パタン格納 ·選択部〗 0 2は、 チャネル毎に 2種類ずつ格納した拡散パ タンから 1種類ずつ選択し、 パルスべク トル拡散部 1 0 3へ出力する。 ただ し、 選択された拡散ハタンの組合せ (組合せ総数: VIN = 8通り) に対応して、 番号が割り当てられることとする。
次に、 パルスべク トル生成部 1 0 1力 表 1記載の規則に従い代数的にパ ルスベクトルをチャネル数分 (本実施の形態では 3個) 生成するつ
パルスベク トル拡散部 1 0 3は、 拡散パタン格納 ·選択部 1 0 2で選択さ れた拡散パタンと、 パルスべク トル生成部 1 0 1で生成されたパルスとを、 数式 (5) による重畳演算にて、 チャネル毎に拡散ベク トルを生成する
L-]
ci(n) - - a )di k
Figure imgf000012_0001
ί5)
但し、 n : 0〜L_ 1
L :拡散べク トル長
i :チャネル番号
j :拡散バタン番号 ( j = 1〜V[)
c i :チヤネノレ iの拡散べク トル
w i j :チャネル i , j種目の拡散バタン
w i j (m) のべク トル長は 2し一 1 (m:— ( L - 1 ) 〜L— 1 ) ただし、 2 L— 1個の要素のうち値を特定できるのは L i j要素、 その他の要素はゼロ
d i :チヤネノレ iのノくノレスべク 卜ノレ
d i = ± δ (η— p i ) 、 n = 0〜L— 1、
p i :チャネル iのパルス位置候補
拡散べク トル加算部 1 04は、 パルスべク トル拡散部 1 03で生成された 3個の拡散べク トルを、 数式 (6) により加算して、 音源べク トル 1 05を 生成する
c :音源べク c{n ) = ci{n ) (6)
c i :拡散べク トル
i :チャネル番号 ( i = 1〜N)
n :ベク トル要素番号 (n = o〜L— l :ただし、 Lは音源ベク トル長) このように構成された音源べク トル生成装置では、 拡散パタン格納 .選択 部 1 0 2が選択する拡散パタンの組合せ方や、 パルスべク トル生成部 1 0 1 が生成するパルスベク トル内のパルスの位置および極性に変化を持たせるこ とで、 多様な音源べク トルを生成することが可能になる。
そして、 このように構成された音源ベク トル生成装置では、 拡散パタン格 納 ·選択部 1 0 2が選択する拡散パタンの組合せ方と、 パルスベク トル生成 部 1 0 1が生成するパルスべク トルの形状 (パルス位置およびパルス極性) の組合せ方の 2種類の情報に対して、 それぞれ 1対 1に対応する番号を割り 当てておくことが可能である., また、 拡散パタン格納 ·選択部 1 0 2には、 実際の音源情報をもとに予め学習を行い、 その学習の結果得られる拡散バタ ンを格納しておくことが可能である,.
また、 上記音源べク トル生成装置を音声符号化装置/復号化装置の音源情 報生成部に用いれば、 拡散バタン格納 ·選択部が選択した拡散バタンの組合 せ番号と、 パルスべク トル生成部が生成したパルスべク トルの組合わせ番号
(パルス位置および/、ルス極性を特定できる) との 2種類の番号を伝送する ことで、 雑音音源情報の伝送を実現できるようになる:,
また、 上記のように構成した音源べク :、ル生成部を用いると、 代数的に生 成したバルス音源を用いる場合よりも、 実際の音源情報に似た形状 (特性) の音源ベク トルを生成することが可能になる
なお、 本実施の形態では、 拡散バタン格納 ·選択部 1 0 2が 1チャネルあ たり 2種類の拡散パタンを格納している場合について説明したが、 各チヤネ ルに対して 2種類以外の拡散バタンを割り当てた場合にも、 同様の作用 ·効 果が得られる:
また、 本実施の形態では、 パルスべク トル生成部 1 0 1が 3チャネル構成 かつ表 1記載のパルス生成規則に基づいている場合について説明したが、 チ ャネル数が異なる場合や、 パルス生成規則として表 1記载以外のパルス生成 規則を用いた場合にも、 同様の作用 ·効果が得られる
また、 上記音源べク トル生成装置あるいは音声符号化装置 Z復号化装置を 有する、 音声信号通信システムまたは音声信号記録システムを構成すること により、 上記音源べク トル生成装置の有する作用 ·効果を得ることができる。
(第 2の実施の形態)
図 4に本実施の形態にかかる C E L P型音声符号化装置の機能プロックを 示し、 図 5に C E L P型音声複号化装置の機能ブロックを示す 3
本実施の形態にかかる C E L P型音声符号化装置は、 上記した図 1の C E L P型音声符号化装置の雑音符号帳に、 第 1の実施の形態で説明した音源べ ク トル生成装置を適用したものである。 また、 本実施の形態にかかる C E L P型音声復号化装置は、 上記した図 2の C E L P音声複号化装置の雑音符号 帳に、 上記第 1の実施の形態の音源べク トル生成装置を適用したものである, よって雑音音源情報のベク トル量子化処理以外の処理は、 上記した図 1, 2 の装置と同様である 本実施の形態では、 雑音音源情報のベタ トル量子化処 理を中心に、 音声符号化装置、 音声復号化装置の説明を行う, また、 第 1の 実施の形態と同様に、 チャネル数 N = 3 , 1チャネルの拡散パタン数 M= 2, パルスべク トルの生成は表 1によるものとする—,
図 4の音声符号化装置における雑音音源情報のべク トル量子化処理は、 数 式 (4 ) の基準値を最大化するような 2種類の番号 (拡散パタンの組合せ番 号、 パルス位置とパルス極性の組合せ番号) を特定する処理である
図 3の音源べク トル生成装置を雑音符号帳として用いた場合、 拡散パタン の組合せ番号 (8種類) とパルスべク トルの組合せ番号 (極性を考慮した場 合: 1 6 3 8 4種類) を閉ループで特定する
このため、 拡散パタン格納 ·選択部 2 1 5力 まず始めに、 自ら格納して いる 2種類の拡散パタンのうち、 どちらか一方の拡散パタンを選択し、 パノレ スベタ トル拡散部 2 1 7へ出力する その後、 パルスべク トル生成部 2 1 6 、 表 1の規則に従い代数的にパルスベク トルをチャネル数分 (本実施の形 態では 3個) 生成し、 バルスベタ トル拡散部 2 1 7へ出力する
パルスべク トル拡散部 2 1 7は、 拡散パタン格納 ·選択部 2 1 5で選択さ れた拡散パタンと、 パルスべク トル生成部 2 1 6で生成されたパルスべク ト ノレとを、 数式 (5 ) による重畳演算に用いて、 チャネル毎に拡散ベク トルを 生成する.
拡散べク トル加算部 2 1 8は、 バルスベタ トル拡散部 2 〗 7で得られた拡 散べク トルを加算して、 音源べク トル (雑音符号べク トルの候補となる) を 生成する。
そして、 歪み計算部 2 0 6が、 拡散べク トル加算部 2 1 8で得られた雑音 符号ベク トル候補を用いた数式 (4 ) の値を算出する。 この数式 (4 ) の値 の算出を、 表 1 の規則によって生成されるバルスベタ トルの組合せ全てにつ いて行い、 その中から数式 (4 ) の値が最大になる時の拡散バタンの組合せ 番号、 パルスベク トルの組合せ番号 (パルス位置とその極性の組合せ) 、 お よびその時の最大値を符号番号特定部 2 1 3へ出力する
次に、 拡散パタン格納 ·選択部 2 1 5は、 格納している拡散バタンから、 先ほどと異なる組合せの拡散パタンを選択する-, そして新たに選択しなおし た拡散パタンの組合せについて、 上記と同様に表 1 の規則に従ってパルスべ ク トル生成部 2 1 6で生成されるバルスベタ トルの全組合せについて、 数式 ( 4 ) の値を算出する, そして、 その中から、 数式 (4 ) を最大にする時の、 拡散バタンの組合せ番号、 パルスべク トルの組合せ番号、 および最大値を符 号番号特定部 2 1 3へ再度出力する
この処理を、 拡散パタン格納 ·選択部 2 1 5が格納している拡散バタンか ら選択できる全組合せ (本実施の形態の説明では、 組合せ総数は 8 ) につい て繰り返す—,
符号番号特定部 2 1 3は、 歪み計算部 2 0 6によって算出されたトータル 8個の最大値を比較し、 その中から一番大きいものを選択し、 その最大値を 生成した時の 2種類の組合せ番号 (拡散パタンの組合せ番号、 パルスべク ト ルの組合せ番号) を特定し、 雑音符号番号として符号出力部 2 1 4へ出力す る, 一方、 図 5の音声復号化装置では、 符号入力部 3 0 1が、 音声符号化装置 (図 4 ) から送信される符号を受信し、 受信した符号を対応する線形予測符 号番号と、 適応符号番号、 雑音符号番号 (拡散パタンの組合せ番号、 パルス ベク トルの組合せ番号の 2種類から構成されている) 、 および重み符号番号 に分解し、 分解して得られた符号をそれぞれ、 線形予測係数復号化部 3 0 2 、 適応符号帳 3 0 3、 雑音符号帳 3 0 4、 重み符号帳 3 0 5へ出力する。
なお、 雑音符号番号のうち、 拡散パタンの組合せ番号は拡散パタン格納 - 選択部 3 1 1へ出力され、 パルスべク トルの組合せ番号はパルスべク トル生 成部 3 1 2へ出力されるものとするつ
そして、 線形予測係数復号化部 3 0 2が線形予測符号番号を復号化して合 成フィルタの係数を得、 合成フィルタ 3 0 9へ出力する 適応符号帳 3 0 3 では、 適応符号番号と対応する位置から適応符号べク トルが読みだされる-.. 雑音符号帳 3 0 4では、 拡散パタン格納 ·選択部 3 1 1が拡散パルスの組 合せ番号に対応する拡散パタンをチャネル毎に読みだしてパルスべク トル拡 散部 3 〗 3へ出力し、 バノレスベタ トル生成部 3 I 2がパルスべク トルの組合 せ番号に対応したパルスべク 卜ルをチャネル数分生成してパルスべク トル拡 散部 3 1 3へ出力し、 パルスべク トル拡散部 3 1 3が拡散パタン格納 .選択 部 3 1 1から受けた拡散パタンとパルスべク トル生成部 3 1 2から受けたパ ルスべク トルとを数式 (5 ) による重畳演算にて拡散べク トルを生成し、 拡 散べク トル加算部 3 1 4へ出力する, 拡散べク トル加算部 3 1 4がパルスべ ク トル拡散部 3 1 3で生成した各チャネルの拡散べク トルを加算して雑音符 号べクトルを生成するつ
そして、 重み符号帳 3 0 5から重み符号番号と対応した適応符号ゲインと 雑音符号ゲインが読みだされ、 適応符号べク トル重付け部 3 0 6において適 応符号ベク トルに適応符号ゲインが乗じられ、 同様に雑音符号ベク トル重付 け部 3 0 7において雑音符号べク トルに雑音符号ゲインが乗じられ、 加算部 3 0 8へ送られる—, 加算部 3 0 8は、 ゲインが乗じられた上記 2つの符号べク トルを加算して 駆動音源べク トルを生成し、 生成した駆動音源べク トルを、 バッファ更新の ために適応符号帳 3 0 3 また、 合成フィルタを駆動するために合成フィ ルタ 3 0 9へと出力する Ί
合成フィルタ 3 0 9は、 加算部 3 0 8で得られた駆動音源べク トルで駆動 され、 合成音声 3 1 0を再生するつ また適応符号帳 3 0 3は、 加算部 3 0 8 より受けた駆動音源べクトルでバッファを更新する,
ただし、 図 4および図 5内の拡散パタン格納 ·選択部には、 数式 (6) 記 載の音源べク トルを数式 (2 ) 内の cに代入した数式 (7) の歪み評価基準 式をコスト関数とし、 当該コスト関数の値がより小さくなるように予め学習 して得られた拡散パタンが各チヤネル毎に格納されているものとする
このようにすることで、 実際の雑音音源情報 (数式 (4) 内のベク トル X ) の形状と類似した形状の音源べク トルを生成することができるようになるた め、 代数的音源べク トル生成部を雑音符号帳に用いた C E L Ρ音声符号化装 置 Ζ復号化装置よりも、 品質の高い合成音声を得ることが可能になる-.
Ec = gcH∑ C I : ("卜 gc H ∑ ''
∑ :'::(-"")- ∑ :、:,∑:': >リ.(" - k )di{ k ) (7) x :雑音符号番号特定用のターゲットベク トル
g c :雑音符号ゲイン
H:合成フィルタのインパルス応答畳み込み行列
c :雑音符号べク トル
i :チャネル番号 ( i = 1 N)
j :拡散パタン番号 ( j =〗 M) c i :チヤネノレ iの拡散べクトル
w i j :チャネル ί , j種目の拡散パタン
d i :チヤネノレ iのバノレスベタ トル
L :音源べク トル長 ( n = 0〜し一 1 )
なお、 本実施の形態では、 拡散パタン格納 ·選択部が、 数式 (7 ) のコス ト関数の値をより小さくするように予め学習して得られた拡散パタンをチヤ ネル毎に M個ずつ格納しておいた場合について説明したが、 実際には VI個の 拡散パタン全てが学習によって得られたものである必要はなく、 学習によつ て得られた拡散パタンを各チャネル毎に少くとも 1種類格納しておくように すれば、 そのような場合にも合成音声の品質を向上させる作用 *効果を得る ことができるつ
また、 本実施の形態では、 拡散パタン格納 ·選択部が格納する拡散パタン の全組合せ、 および、 パルスべク トル生成部 6が生成するパルスべク トルの 位置候補の全組合せから、 数式 (4 ) の基準値を最大化する組合せ番号を閉 ルーフで特定する場合について説明したが、 雑音符号帳の番号特定以前に求 めたハラメータ (適応符号ベク トルの理想ゲインなど) を基に予備選択を行 つたり、 開ループで探索するなどしても同様の作用 ·効果を得ることができ る
また、 上記音声符号化装置/復号化装置を有する、 音声信号通信システム または音声信号記録システムを構成することにより、 第 1の実施の形態で記 載した音源べク トル生成装置の有する作用 ·効果を得ることができる—
(第 3の実施の形態)
図 6に本実施の形態にかかる C E L P型音声符号化装置の機能プロックを 示す 本実施の形態は、 上記第 1の実施の形態の音源ベク トル生成装置を雑 音符号帳に用いた C E L P音声符号化装置において、 雑音符号帳を探索する 以前に求まっている理想適応符号ゲインの値を用いて、 拡散パタン格納 ·選 択部に格納された拡散バタンの予備選択を行う-, 雑音符号帳周辺部以外は図 4の C E L P型音声符号化装置と同一である, よって本実施の形態の説明は、 図 6の C E L P型音声符号化装置における雑音音源情報のべク トル量子化処 理についての説明する、
この C E L P型音声符号化装置は、 適応符号帳 4 0 7、 適応符号ゲイン重 み付け部 4 0 9、 実施の形態 1で説明した音源べク トル生成装置によって構 成された雑音符号帳 4 0 8、 雑音符号ゲイン重み付け部 4 1 0、 合成フィル タ 4 0 5、 歪み計算部 4 0 6、 符号番号特定部 4 1 3、 拡散パタン格納 ·選 択部 4 1 5、 パルスべク トル生成部 4 1 6、 パルスべク トル拡散部 4 1 7、 拡散べクトル加算部 4 1 8、 適応ゲイン判定部 4 1 9を備えている-'
ただし、 本実施の形態において、 上記拡散パタン格納 ·選択部 4 1 5が格 納する M種類 ( T≥ 2 ) の拡散パタンのうちすくなくとも 1種類は、 雑音音 源情報をべク トル量子化する際に生じる量子化歪みをより小さくするように 予め学習し、 当該学習の結果得られた拡散パタンであることとする:,
本実施の形態では、 説明簡単化のため、 パルスべク トル生成部のチャネル 数 Nは 3、 拡散バタン格納 ·選択部が格納しているチャネルあたりの拡散パ ルスの種類数 Mは 2とし、 さらに、 VI種類 (M = 2 ) の拡散パタンは、 1つ が上記学習によって得られた拡散パタンであり、 もう一方は、 乱数ベク トル 生成装置によって生成される乱数べク トル列 (以下: ランダムパタンと呼ぶ) である場合として説明を行う-. ちなみに、 上記学習によって得られる拡散パ タンは、 図 3内の w ll の様に、 長さは比較的短く、 パルス的な形状の拡散パ タンになることがわかっている.
図 6の C E L P型音声符号化装置においては、 雑音音源情報のべク トル量 子化の前に適応符号帳の番号を特定する処理が行われる よって、 雑音音源 情報のべク トル量子化処理を行う時点では、 適応符号帳のべク トル番号 (適 応符号番号) および、 理想適応符号ゲイン (暫定的に決っている) を参照す ることが可能である 本実施の形態では、 このうちの理想適応符号ゲインの 値を使って、 拡散パルスの予備選択を行う 具体的にはまず、 適応符号帳探索の終了直後に符号番号特定部 4 1 3に保 持されている適応符号ゲインの理想値が、 歪み計算部 4 0 6へ出力される, 歪み計算部 4 0 6は、 符号番号特定部 4 1 3から受けた適応符号ゲインを適 応ゲイン判定部 4 1 9へ出力するつ
適応ゲイン判定部 4 1 9は、 歪み計算部 4 0 9より受けた理想適応ゲイン の値と予め設定されたしきい値との大小比較を行う 3 次に適応ゲイン判定部 4 1 9は、 上記大小比較の結果に基づき、 拡散パタン格納 .選択部 4 1 5に 予備選択用の制御信号を送る-, 制御信号の内容は、 上記大小比較において適 応符号ゲインが大きい場合には、 雑音音源情報をべク トル量子化する際に生 じる量子化歪みをより小さくするように予め学習して得られた拡散パタンを 選択するように指示し、 また上記大小比較において適応符号ゲインが大きく ない場合には、 学習の結果得られた拡散バタンとは別の拡散パタンを予備選 択するように指示する。
この結果、 拡散パタン格納部 ·選択部 4 1 5において、 適応ゲインの大き さに適応して、 各チャネルが格納している M種類 (V[ = 2 ) の拡散パタンを 予備選択することが可能になり、 拡散バタンの組合せ数を大幅に削減できる ようになる, その結果、 拡散パタンの全組合せ番号についての歪み計算をす る必要がなくなり、 雑音音源情報のべク トル量子化処理を少ぃ演算量で効率 的に行うことが可能になるつ
そして、 さらに、 雑音符号ベク トルの形状は、 適応ゲインの値が大きい時 (有声性が強い時) にはパルス的な形状になり、 適応ゲインの値が小さい時 (有声性が弱い時) にはランダム的な形状になる, よって、 音声信号の有声 区間おょぴ無声区間に対して、 それぞれ適した形状の雑音符号べク トルを利 用できるようになるため、 合成音声の品質を向上させることが可能になる, なお、 本実施の形態では説明簡単化のため、 パルスべク トル生成部のチヤ ネル数 Nは 3、 拡散パタン格納 ·選択部が格納しているチャネルあたりの拡 散パルスの種類数 Mは 2の場合に限定して説明を行ったが、 パルスベク トル 生成部のチャネル数、 拡散パタン格納 ·選択部内のチャネルあたりの拡散パ タン数が上記説明と異なる場合についても、 同様の効果 ·作用が得られる また、 本実施の形態では説明簡単化のため、 各チャネルあたり格納する M 種類 (\ = 2 ) の拡散パタンのうち、 一種類は上記学習によって得られた拡 散パタン、 もう一種類はランダムバタンである場合について説明を行ったが、 学習によって得られた拡散パタンを各チャネル毎に少くとも 1種類格納して おくようにすれば、 上記のような場合でなくても、 同様の効果 ·作用を期待 することができる。
また、 本実施の形態では、 拡散パタンを予備選択するための手段として、 適応符号ゲインの大小情報をもちいる場合について説明したが、 適応ゲイン の大小情報以外の音声信号の短時間的特徴を表すパラメータを併用すると、 なお一層の効果 ·作用を期待することができる
また、 上記音声符号化装置を有する、 音声信号通信システムまたは音声信 号記録システムを構成することにより、 実施の形態 1で記載した音源べク ト ル生成装置の有する作用 ·効果を得ることができる
なお、 本実施の形態の説明では、 雑音音源情報の量子化を行う時点で参照 可能な現処理フレ一ムの理想適応音源ゲインを利用して拡散バタンを予備選 択する方法について説明したが、 現フレームの理想適応音源ゲインの代わり に、 直前のフレームで求めた復号化適応音源ゲインを利用する場合にも同様 の構成をとることが可能であり、 その場合にも同様の効果を得ることができ る s
(第 4の実施の形態)
図 7は本実施の形態にかかる C Eし P型音声符号化装置の機能プロック図 である, 本実施の形態は、 第 1の実施の形態の音源ベク トル生成装置を雑音 符号帳に用いた C E L P型音声符号化装置において、 雑音音源情報をべク ト ル量子化する時点で利用可能な情報を使って拡散パタン格納 ·選択部に格納 された複数の拡散パタンを予備選択する この予備選択の基準として適応符 号帳の番号特定を行った時に生じる符号化歪み (S Z N比で表現) の大小を 使うことを特徴としている
なお、 雑音符号帳周辺部以外は図 4の C E L P型音声符号化装置と同一で ある, よって本実施の形態の説明では、 雑音音源情報のべク トル量子化処理 について詳しく説明する,
図 7に示すように、 本実施の形態の C E L P型音声符号化装置は、 適応符 号帳 5 0 7、 適応符号ゲイン重み付け部 5 0 9、 第 1の実施の形態で説明し た音源べク トル生成装置によって構成された雑音符号帳 5 0 8、 雑音符号ゲ ィン重み付け部 5 1 0、 合成フィルタ 5 0 5、 歪み計算部 5 0 6、 符号番号 特定部 5 〗 3、 拡散パタン格納 '選択部 5 1 5、 パルスべク トル生成部 5 1 6、 パルスべク トル拡散部 5 1 7、 拡散べク トル加算部 5 1 8、 歪みパヮ判 定部 5 1 9を備える,
ただし、 本実施の形態において、 上記拡散パタン格納 ·選択部 5 1 5が格 納する格納する VI種類 ( l≥ 2 ) の拡散バタンのうちすくなくとも 1種類は、 ランダムパタンであることとする-.
本実施の形態では、 説明簡単化のため、 バルスベタ トル生成部のチャネル 数 Nは 3、 拡散バタン格納 ·選択部が格納しているチャネルあたりの拡散パ ルスの種類数 Mは 2とし、 さらに、 M種類 (VI = 2 ) の拡散パタンのうち 1 種類はランダムパタン、 もう 1種類は雑音音源情報をべク トル量子化するこ とにより生じる量子化歪みをより小さくするように予め学習し、 当該学習の 結果得られた拡散パタンであるとする。
図 7の C E L P型音声符号化装置においては、 雑音音源情報のべク トル量 子化処理の前に適応符号帳の番号特定処理が行われる, よって、 雑音音源番 号のべク トル量子化処理を行う時点では、 適応符号帳のベタ トル番号 (適応 符号番号) 、 理想適応符号ゲイン (暫定的に決っている) および、 適応符号 帳採索用のターゲットべク トルを参照することができる。 本実施の形態では、 上記 3つの情報から算出できる適応符号帳の符号化歪み (S Z N比で表現) を使って、 拡散パタンの予備選択を行う,
具体的には、 適応符号帳探索の終了直後に符号番号特定部 5 1 3に保持さ れている適応符号番号おょぴ適応符号ゲイン (理想ゲイン) の値が歪み計算 部 5 0 6へ出力される 歪み計算部 5 0 6は、 符号番号特定部 5 1 3から受 けた適応符号番号および適応符号ゲインと適応符号帳探索用のターゲッ卜べ ク トルを用いて、 適応符号帳の番号特定によって生じた符号化歪み (S Z N 比) を算出する 算出した S / N比を歪みパヮ判定部 5 1 9へ出力する 歪みパヮ判定部 5 1 9は、 まず始めに、 歪み計算部 5 0 6より受けた S Z N比と予め設定されたしきい値との大小比較を行う 次に歪みパヮ判定部 5 1 9は、 上記大小比較の結果に基づき、 拡散バタン格納 ·選択部 5 1 5に予 備選択用の制御信号を送る— 制御信号の内容は、 上記大小比較において S Z
N比が大きい場合には、 雑音符号帳探索用ターゲットべク トルを符号化する ことにより生じる符号化歪みをより小さくするように予め学習した結果得ら れる拡散パタンを選択するように指示し、 また上記大小比較において S Z N 比が小さい場合には、 ランダムパタンの拡散パタンを選択するように指示す るものである- この結果、 拡散バタン格納 ·選択部 5 1 5において、 各チャネルが格納し ている M種類 (VI = 2 ) の拡散パタンから 1種類だけが予備選択されること になり、 拡散パタンの組合せを大幅に削減できるようになる:, その結果、 拡 散パタンの全組合せ番号についての歪み計算をする必要がなくなり、 雑音符 号番号の特定を少ぃ演算量で効率的に行うことができることになる-. そして、 さらに、 雑音符号ベク トルの形状は、 S / N比が大きい時にはパルス的な形 状になり、 S Z N比が小さい時にはランダム的な形状になる よって、 音声 信号の短時間的な特徴に応じて、 雑音符号べク トルの形状を変化させること が可能になるため、 合成音声の品質を向上させることが可能になる
なお、 本実施の形態では説明簡単化のため、 パルスべク トル生成部のチヤ ネル数 Nは 3、 拡散パタン格納 ·選択部が格納しているチャネルあたりの拡 散パルスの種類数 Iは 2の場合に限定して説明を行ったが、 パルスべク トル 生成部のチャネル数、 チャネルあたりの拡散パタンの種類数が上記説明と異 なる場合についても、 同様の効果 ·作用が得られる,
また、 本実施の形態では説明簡単化のため、 さらに、 各チャネルあたり格 納する M種類 (Vl = 2 ) の拡散パタンのうち、 一種類は上記学習によって得 られた拡散パタン、 もう一種類はランダムパタンである場合について説明を 行ったが、 ランダムパタンの拡散パタンを各チャネル毎に少くとも 1種類格 納しておくようにすれば、 上記のような場合でなくても、 同様の効果 ·作用 を期待することができる-.
また、 本実施の形態では、 拡散パタンを予備選択するための手段として、 適応符号番号の特定によって生じる符号化歪み (S / N比で表現) の大小情 報だけを用いたが、 音声信号の短時間的特徴をさらに正確に表せる情報を併 用すると、 なお一層の効果 ·作用を期待することができる
また、 上記音声符号化装置を有する、 音声信号通信システムまたは音声信 号記録システムを構成することにより、 第 1の実施の形態で記載した音源べ ク トル生成装置の有する作用 ·効果を得ることができる- (第 5の実施の形態)
図 8に、 本発明の第 5の実施の形態にかかる C Eし P型音声符号化装置の 機能ブロックを示す- この C E L P型音声符号化装置では、 L P C分析部 6 0 0において、 入力された音声データ 6 0 1に対して自己相関分析と L P C 分析を行なうことによってし P C係数を得る また、 得られたし P C係数の 符号化を行なって L P C符号を得るとともに、 得られた L P C符号を復号化 して復号化 L P C係数を得る
次に、 音源作成部 6 0 2において、 適応符号帳 6 0 3と雑音符号帳 6 0 4 に格納された音源サンプル (それぞれ適応コードべク トル (または、 適応音 源) と雑音コードベク トル (または、 雑音音源) と呼ぶ) を取り出し、 それ ぞれを L P C合成部 6 0 5 送る L P C合成部 6 0 5において、 音源作成部 6 0 2で得られた 2つの音源に 対して、 L P C分析部 6 0 0で得られた復号化 L P C係数によってフィルタ リングを行ない 2つの合成音を得る、
比較部 6 0 6においては、 L P C合成部 6 0 5で得られた 2つの合成音と 入力音声 6 0 1 との関係を分析し、 2つの合成音の最適値 (最適ゲイン) を 求め、 その最適ゲインによってパワー調整したそれぞれの合成音を加算して 総合合成音を得、 その総合合成音と入力音声の距離計算を行なう
また、 適応符号帳 6 0 3と雑音符号帳 6 0 4の全ての音源サンプルに対し て音源作成部 6 0 2 、 L P C合成部 6 0 5を駆動させることによって得られ る多くの合成音と入力音声 6 0 1 との距離計算を行ない、 その結果得られる 距離の中で最も小さいときの音源サンプルのインデクスを求める
また、 得られた最適ゲインと、 音源サンプルのインデタス、 さらにそのィ ンデタスに対応する 2つの音源をパラメータ符号化部 6 0 7へ送る。 パラメ —タ符号化部 6 0 7では、 最適ゲインの符号化を行な')ことによってゲイン 符号を得、 L P C符号、 音源サンブルのインデクスをまとめて伝送路 6 0 8 へ送る。
また、 ゲイン符号とインデタスに対応する 2つの音源から実際の音源信号 を作成し、 それを適応符号帳 6 0 3に格納すると同時に古い音源サンプルを 破棄する。
なお、 L P C合成部 6 0 5においては、 線形予測係数や高域強調フィルタ や長期予測係数 (入力音声の長期予測分析を行なうことによって得られる) を用いた聴感重み付けフィルタ一を併用するのが一般的である また、 適応 符号帳と雑音符号帳に対する音源探索は、 分析区間を更に細かく分けた区間 (サブフレームと呼ばれる) で行われるのが一般的である,
以下、 本実施の形態では L P C分析部 6 0 0における L P C係数のベタ ト ル量子化について詳しく説明する
図 9に L P C分析部 6 0 0において実行されるべク トル量子化アルゴリズ ムを実現するための機能ブロックを示す。 図 9に示すベタ トル量子化ブロッ クは、 タ一ゲット抽出部 7 0 2、 量子化部 7 0 3、 歪計算部 7 0 4、 比較部 7 0 5、 復号化べク トル格納部 7 0 7、 ベタ トル平滑化部 7 0 8で構成され ている
タ一ゲット抽出部 7 0 2において、 入力べク トノレ 7 0 1を基に量子化タ一 ゲットを算出する, ここで、 ターゲット抽出方法について詳細に説明する ここで、 本実施の形態における 「入力ベク トル」 は、 符号化対象フレーム を分析して得られるパラメータべク トルと、 1つ未来のフレームから同様に して得られるパラメータべク トルとの計 2種類のべク トルにより構成する ターゲット抽出部 7 0 2は上記入力べク トルと、 復号化べク トル格納部 7 0 7に格納された前のフレームの復号化べク トルとを用いて量子化ターゲット を算出する 算出方法の例を数式 (8 ) に示すつ
X{i) = {S,( + P(d( i) + Sl+l ( i) / 2} / (\ + p) (8)
X ( i ) :タ一ゲットべク トル
i :べク トルの要素番号
S ,. ( i ) 、 Sい ( i ) :入力べク トル
t :時間 (フレーム番号)
p :重み付け係数 (固定)
d ( i ) :前フレームの複号化ベク トル
上記ターゲット抽出方法の考え方を以下に示す。 典型的なべク トル量子化 では、 現フレームのパラメータベク トル S t ( i ) をターゲット X ( i ) とし、 数式 (9 ) によってマッチングを行なう-,
Figure imgf000026_0001
E n : n番目のコードべク トルとの距離
X ( i ) :量子化タ一ゲット C n ( i ) : コ一ドべク 卜ノレ
n : コ一ドべクトルの番号
i :べク トルの次数
I :ベタ トルの長さ
したがって、 これまでのべク トル量子化では、 符号化歪がそのまま音質の 劣化に繋がってしまう。 これは、 予測ベク トル量子化等の対策を取ってもあ る程度の符号化歪が避けられない超低ビットレートの符号化では大きな問題 となっていた
そこで、 本実施の形態では、 聴感的に誤りを感じ難い方向として前後の復 号化べク トルの中点に着目し、 これに複号化べク トルを誘導することによつ て聴感的向上を実現する-. これは、 バラメータべク トルの補間特性が良好な 場合、 時間的な連続性が聴感的劣化に聞こえ難い特性を利用したものである., 以下に、 この様子をべク トル空間を示す図 1 0を参照して説明する。
まず、 1つ前のフレームの復号化ベク トルを d ( i ) とし、 未来のパラメ ータベク トルを S t i ( i ) とすると (実際は未来の復号化ベク トルが望まし いが、 現フレームでは符号化できないので、 パラメ一タべク トルを代用する) 、 コードベク トル C n ( i ) : (1)はコードベク トル C n ( i ) : (2)よりもパラ メータベク トル S , ( i ) に近いが、 実際は C n ( i ) : (2)は(1 ( i ) と S t ( i ) を結んだ線上に近いために C n ( i ) : (1)よりも劣化が聞こえにく レ、 -, したがつてこの性質を利用し、 ターゲット X ( i ) を S t ( i ) から d ( i ) と ( i ) の中点にある程度近付いた位置のベク トルとすれば、 復 号化べク トルは聴感的に歪の少ない方向へ誘導される
そして、本実施の形態では、 このタ一ゲットの移動を以下の評価式数式(9 ) を導入することによって実現する
Ά = {S, (i) + p{d{i) + SM ( i) / 2} / (\ + p) (10)
X ( i ) :量子化ターゲットベク トル i :べクトルの要素番号
S ,. ( i ) 、 S , , ( i ) :入力べク トル
t :時間 (フレーム番号)
P :重み付け係数 (固定)
d ( ί ) :前フレームの復号化ベク トル
数式 (1 0) の前半は一般的なべク トル量子化の評価式であり、 後半は聴 感重みの成分である 上記評価式で量子化を行なうために各 X ( i ) で評価 式を微分し、 微分したものを 0とすると、 数式 (8) が得られる。
なお、 重み付け係数 pは正の定数であり、 0の時は一般的なベク トル量子 化と同様であり、 無限大の時はターゲットは完全に中点となる なお、 が あまりに大きいとターゲットが現フレームのパラメータベク トル S t ( i ) 力 ら大きく離れてしまい、 聴感的に明瞭度が低下する、 複号化音声の試聴実験 により、 0. 5く pく 1. 0で良好な性能が得られることを確認している。 次に、 量子化部 703においてタ一ゲット抽出部 702で得られた量子化 ターゲットの量子化を行ない、 ベク トルの符号を求めると共に、 複号化べク トルを求め、 符号と共に歪計算部 704へ送る- なお、 本実施の形態では、 量子化の方法として予測ベク トル量子化を用い る 以下に予測べク トル量子化について説明するつ
図 1 1に予測べク トル量子化の機能ブロックを示す, 予測べク トル量子化 は、 過去に符号化及び複号化して得られたべク トル (合成べク トル) を用い て予測を行ない、 その予測誤差をべク トル量子化するアルゴリズムである。 予め、 予測誤差べク トルの中心的サンプル (コードべク トル) が複数格納 されたベク トル符号帳 800を作成しておくつ これは、 一般には、 多くの音 声データを分析して得られた多数のベク トルを基に、 LBGアルゴリズム ( I E E E TRANSACT I ONS ON CO UN I C AT I ON S, VOL. COM- 28, NO. 1, P P 84 - 95 , J ANUARY 1 9 80) によって作成する,, 量子化タ一ゲットのべク トル 8 0 1に対して予測部 8 0 2で予測を行なう, 予測は状態格納部 8 0 3に格納された過去の合成べク トルを用いて行ない、 得られた予測誤差ベク トルを距離計算部 8 0 4へ送る,. ここでは、 予測の形 態として、 予測次数 1次で固定係数による予測を挙げる- この予測を用いた 場合の予測誤差べク トル算出の式を以下の数式 (1 1 ) に示す:
Y ( i ) =X ( i ) - β Ό ( i ) ( 1 1 )
Υ ( i ) :予測誤差べク トル
X ( i ) :量子化ターゲット
β :予測係数 (スカラー量)
D ( i ) : "1 つ前のフレ一ムの合成ベク トル
i :べク トルの次数
上記式において、 予測係数 /3は 0く β < 1の値であるのが一般的である 次に、 距離計算部 8 0 4において、 予測部 8 0 2で得られた予測誤差べク トルとベタ トル符号帳 8 0 0に格納されたコードべク トルとの距離を計算す る 距離の式を以下の数式 (1 2) に示す
Figure imgf000029_0001
E n : n番目のコードべク トルとの距離
Y ( i ) :予測誤差べク トル
C n ( i ) : コ一ドべク トル
n : コードべク トルの番号
i :べクトルの次数
Ϊ :べク トルの長さ
次に、 探索部 8 0 5において、 各コードべク トルとの距離を比較し、 最も 距離の小さいコ一ドべク トルの番号をべク トルの符号 8 0 6として出力する すなわち、 ベタ トル符号帳 8 0 0と距離計算部 8 0 4とを制御し、 ベタ トル 符号帳 8 0 0に格納された全てのコードべク トルの中で最も距離の小さくな るコ一ドべクトルの番号を求め、 これをべク トルの符号 8 0 6とする
更に、 最終的符号に基づきべク トル符号帳 8 0 0から得られたコ一ドべク トルと状態格納部 8 0 3に格納された過去の複号化べク トルを用いてべク ト ルの復号化を行ない、 得られた合成べク トルを用いて状態格納部 8 0 3の内 容を更新する, したがって、 次の符号化を行なう時には、 ここで復号化した べク トルが予測に使用される
上記の予測形態の例 (予測次数 1次、 固定係数) の復号化は以下の数式 (1 3 ) により行なう
Z ( i ) = C N ( i ) + j3 D ( i ) ( 1 3 )
Z ( i ) :復号化ベク トル (次の符号化時に D ( i ) として使用される) N :べク トルに符号
C N ( i ) : コ一ドべク トノレ
β :予測係数 (スカラー量)
D ( i ) : 1つ前のフレームの合成べク トノレ
i :べク トルの次数
一方、 復号器 (デコーダ) では、 伝送されてきたべク トルの符号に基づい てコードべク トルを求めることによって復号化するつ 復号器には予め符号器 と同じベク トル符号帳と状態格納部を用意し、 上記符号化アルゴリズムにお ける探索部の復号化機能と同様のアルゴリズムで復号化を行なう 以上が量 子化部 7 0 3において実行されるべク トル量子化である。
次に、 歪計算部 7 0 4においては、 量子化部 7 0 3で得られた複号化べク トルと入力べク トル 7 0 1 と復号化べク トル格納部 7 0 7に格納された前の フレームの復号化ベク トルから、 聴感重み付け符号化歪を計算する 計算式 を以下の数式 (1 4 ) に示す.—,
Figure imgf000031_0001
E w:重み付け符号化歪み
S ( i ) , S , ( i ) :入力べク トル
t :時間 (フレーム番号)
i :べク トルの要素番号
V ( i ) :復号化べクトル
P :重み付け係数 (固定)
d ( i ) :前フレームの復号化ベク トル
数式 ( 1 4 ) において、 重み係数 pはターゲット抽出部 7 0 2で用いたタ 一ゲットの算出式の係数と同じである, そして、 上記重み付け符号化歪の値 と復号化べク トルとべク トルの符号とを比較部 7 0 5へ送る:
比較部 7 0 5は、 歪計算部 7 0 4から送られたべク トルの符号を伝送路 6 0 8へ送り、 更に歪計算部 7 0 4から送られた復号化べク トルを用いて復号 化べク トル格納部 7 0 7の内容を更新する- このような実施の形態によれば、 ターゲット抽出部 7 0 2においてタ一ゲ ットベク トルを S , ( i ) から d ( i ) と S t.—【 ( i ) の中点にある程度近付 いた位置のベタ トルに修正しているので、 聴感上劣化を感じないように重み 付け探索を行なうことが可能になる。
なお、 これまでは本発明を携帯電話等で用いられる低ビッ トレ一ト音声符 号化技術へ適応した場合の説明を行なったが、 本発明は音声符号化だけでな く、 楽音符号化装置や画像符号化装置における比較的補間性の良いパラメ一 タのべクトル量子化にも用いることもできる。
なお、 上記アルゴリズムにおける L P C分析部での L P Cの符号化は、 通 常 L S P (線スべク トル対) 等の符号化しやすいパラメータべク トルに変換 して、 ュ一クリッド距離や重み付きユークリッド距離によってべク トル量子 ィヒ (V Q ) するのが一般的であるつ また本実施の形態では、 ターゲット抽出部 7 0 2が比較部 7 0 5の制御を 受けてベタ トル平滑化部 7 0 8へ入力べク トル 7 0 1を送り、 ベタ トル平滑 化部 7 0 8で変更された入力べク トルをターゲット抽出部 7 0 2が受けてタ —ゲッ トの再抽出を行なう
この場合、 比較部 7 0 5では、 歪計算部 7 0 4より送られた重み付け符号 化歪の値と比較部內部に用意されている基準値とを比較する この比較結果 によって処理は 2通りに分かれる
基準値未満の場合は、 歪計算部 7 0 4から送られたべク トルの符号を伝送 路 6 0 6へ送り、 更に、 歪計算部 7 0 4より送られた復号化ベク トルを用い て復号化べク トル格納部 7 0 7の内容を更新する この更新は復号化べク ト ル格納部 7 0 7の内容を、 得られた復号化べク トルで書き換えることにより 行なう そして、 次のフレームのパラメータの符号化へ処理を移行する 3
—方、 基準値以上の場合は、 ベク トル平滑化部 7 0 8を制御して、 入力べ ク トルに変更を加え、 ターゲット抽出部 7 0 2、 量子化部 7 0 3、 歪計算部 7 0 4を再び機能させて再符号化を行なう - 比較部 7 0 δにおいて基準値未満になるまで、 符号化処理は繰り返されるつ ただし、 何度繰り返しても基準値未満にならないことがあるので、 比較部 7 0 5は内部にカウンタ一を保有し、 基準値以上と判定された回数をカウント し、 一定数以上になると符号化の繰り返しを中止して、 基準値未満の場合の 処理とカウンターのクリアを行なう-,
べク トル平滑化部 7 0 8では、 比較部 7 0 5の制御を受け、 タ一ゲット抽 出部 7 0 2より得た入力べク トルと復号化べク トル格納部 7 0 7より得た前 のフレームの復号化べク トルとから、 入力べク トルの 1つである現フレーム のパラメータベク トル S , ( i ) を以下の数式 (1 5 ) によって変更し、 変更 された入力ベク トルをターゲット抽出部 7 0 2へ送る。
S t. ( i ) — い—q ) - S ( i ) + q ( d ( i ) + S t _ , ( i ) ) / 2
( 1 5 ) 上記 qは平滑化係数であり、 現フレームのパラメータべク トルを前のフレ —ムの複号化べク トルと未来のフレームのパラメータべク トルの中点に近づ ける度合いを表わす、 符号化実験により、 0 . 2 < qく 0 . 4で比較部 7 0 5の内部の繰り返し数の上限値が 5〜 8回で良好な性能が得られることを確 認している
ここで、 本実施の形態では量子化部 7 0 3に予測べク トル量子化を用いる 、 上記平滑化によって、 歪計算部 7 0 4で得られる重み付け符号化歪は小 さくなる可能性が高い, なぜなら、 平滑化によって量子化ターゲットは前の フレームの復号化べク トルにより近付くからである したがって比較部 7 0 5の制御による符号化の繰り返しにより、 比較部 7 0 5の歪の比較で基準値 未満になる可能性が増加していく,
また、 復号器 (デコーダ) では、 予め符号器の量子化部に対応する復号部 を用意しておき、 伝送路から送られてきたべク トルの符号に基づいて復号化 を行う -,
また、 本実施の形態を C E L P方式の符号化で現われる L S Pパラメータ の量子化 (量子化部は予測 V Q ) に適用して音声の符号化 ·復号化実験を行 なった、 その結果、 聴感的に音質が向上するのはもちろんのこと、 客観値 (S ZN比) をも向上させることができることを確認した, これは、 ベク トル平 滑化を有する符号化の繰り返し処理により、 スべク トルが激しく変化する場 合でも予測 V Qの符号化歪を押さえられるという効果があるためである-.. 従 来の予測 V Qは過去の合成べク トルから予測するために、 話し始めの部分等 のスべク トルが急激に変化する部分のスベタ トル歪はかえつて大きくなつて しまうという欠点を持っていた しかし、 本実施の形態を適用すると、 歪の 大きい場合は歪が少なくなるまで平滑化を行なうために、 タ一ゲットは実際 のパラメータベク トルからは多少離れるが、 符号化歪は小さくなるので、 ト —タルとして音声を復号化した時の劣化が少なくなるという効果が得られるつ したがって、 本実施の形態により、 聴感的音質向上のみならず、 客観値をも 向上させることができる。
したがって、 本実施の形態では、 比較部とベク トル平滑化部の特徴により べク トル量子化歪が大きい場合にその劣化の方向を聴感的により感じない方 向に制御することが可能になり、 また、 量子化部に予測ベク トル量子化を用 いた場合には符号化歪が小さくなるまで平滑化 +符号化を繰り返すことによ り客観値をも向上させることが出来る
なお、 これまでは本発明を携帯電話等で用いられる低ビットレ一ト音声符 号化技術へ適応した場合の説明を行なったが、 本発明は音声符号化だけでな く、 楽音符号化装置や画像符号化装置における比較的補間性の良いパラメ一 タのべク トル量子化にも用いることもできる- (第 6の実施の形態)
次に、 本発明の第 6の実施の形態にかかる C E L P型音声符号化装置に付 いて説明する 本実施の形態は、 量子化方法として多段予測ベク トル量子化 を用いる量子化部の量子化アルゴリズムを除いて、 その他の構成は上記第 5 の実施の形態と同一構成である-, すなわち、 雑音符号帳として上述した第 1 の実施の形態の音源ベク トル生成装置を用いている ここでは、 量子化部の 量子化アルゴリズムについて詳しく説明する—,
図 1 2に、 量子化部の機能ブロックを示す: 多段べク トル量子化では、 タ 一ゲットのべク トル量子化を行った後、 量子化したターゲッ卜の符号語でそ の符号帳を用いて複号化を行い、 符号化されたベク トルと元のターゲットと の差 (符号化歪みベク トルと呼ぶ) を求め、 求めた符号化歪みベク トルをさ らにべク トル量子化するつ
予め、 予測誤差べク トルの中心的サンプル (コー ドべク トル) が複数格納 されたべク トル符号帳 8 9 9、 ベタ トル符号帳 9 0 0を作成しておく-, これ らは、 多くの学習用の予測誤差ベク トルに対して、 典型的な 「多段ベク トル 量子化」 の符号帳作成方法と同様のアルゴリズムを適用することによって作 成する すなわち、 一般には、 多くの音声データを分析して得られた多数の ベク トルを基に、 L B Gアルゴリ ズム ( I E E E T R AN S ACT I ON S ON C OMMUN I CAT I O N S, VO L. COM— 2 8, NO. 1, P P 8 4— 9 5, J ANU A RY 1 9 8 0) によって作成する ただ し、 べク トル符号帳 8 9 9の学習用母集団は多くの量子化ターゲッ卜の集合 であるが、 ベク トル符号帳 9 0 0の学習用母集団は上記多くの量子化タ一ゲ ットに対してべク トル符号帳 8 9 9で符号化を行なった時の符号化歪べク ト ルの集合である。
まず、 量子化タ一ゲットのべク トル 9 0 1に対して予測部 9 0 2で予測を 行なう 予測は状態格納部 9 0 3に格納された過去の合成べク トルを用いて 行ない、 得られた予測誤差べク トルを距離計算部 9 0 4と距離計算部 9 0 5 とへ送る,
本実施の形態では、 予測の形態として、 予測次数 1次で固定係数による予 測を挙げる この予測を用いた場合の予測誤差べク トル算出の式を以下の数 式 ( 1 6 ) に示す—..
Figure imgf000035_0001
Y ( i ) :予測誤差べク トル
X ( i ) :量子化タ一ゲッ ト
β :予測係数 (スカラー量)
D ( i ) : 1つ前のフレームの合成ベク トル
i :べク トルの次数
上記式において、 予測係数 は 0く β < 1の値であるのが一般的である- 次に、 距離計算部 9 0 4において、 予測部 9 0 2で得られた予測誤差べク トルとべク トル符号帳 8 9 9に格納されたコードべク トル Αとの距離を計算 する。 距離の式を以下の数式 (1 7) に示す。
Figure imgf000035_0002
E n : n番のコードべク トル Aとの距離
Y ( i ) :予測誤差べク トル
C 1 n ( i ) : コ一ドべクトル A
n :コードべクトル Aの番号
i : べク トルに次数
I :ベタトルの長さ
そして、 探索部 9 0 6において、 各コードベク トル Aとの距離を比較し最 も距離の小さいコードべク トル Aの番号をコードべク トル Aの符号とする。 すなわち、 べク トル符号帳 8 9 9と距離計算部 9 0 4を制御し、 ベタ トル符 号帳 8 9 9に格納された全てのコードべク トルの中で最も距離の小さくなる コードべク トル Aの番号を求め、 これをコードべク トル Aの符号とする, そ して、 コードベク トル Aの符号と、 これを参照してベク トル符号帳 8 9 9よ り得られた復号化ベク トル Aとを距離計算部 9 0 5へ送る。 また、 コードべ ク トル Aの符号を伝送路、 探索部 9 0 7へ送る
距離計算部 9 0 5は、 予測誤差べク トルと、 探索部 9 0 6より得られた復 号化ベク トル Aとから符号化歪ベク トルを得、 また、 探索部 9 0 6より得ら れたコードべク トル Aの符号を参照してアンプ格納部 9 0 8からアンプリチ ュ一ドを得、 そして、 上記符号化歪べク トルとベタ トル符号帳 9 0 0に格納 されたコ一ドべク トル Bに上記アンプリチュードを乗じたものとの距離を計 算し、 その距離を探索部 9 0 7へ送る— 距離の式を以下の数式 (1 8 ) に示 す、.
Z ( i ) = Y ( i ) - C I ( i )
Em = ^ (Z(/) - aNC2 ( i))2 (1 8)
Z ( i ) :復号化歪みべク トル
Y ( i ) :予測誤差べク トル C 1 N ( i ) :複号化べク トル A
N : コ一ドべク トル Aの符号
E m : m番目のコードべク トル Bとの距離
a N : コ一ドべク トル Aの符号に対応するアンブリチュ一ド
C 2 m ( i ) : コ一ドべク トル B
m : コ一ドべク トル Bの番号
i :べク トルの次数
1 :ベタ トノレの長さ
そして、 探索部 9 0 7において、 各コードベク トル Bとの距離を比較し最 も距離の小さいコードべク トル Bの番号をコードべク トル Bの符号とするつ すなわち、 べク トル符号帳 9 0 0と距離計算部 9 0 5とを制御し、 べク トル 符号帳 9 0 0に格納された全てのコードべク トル Bの中で最も距離の小さく なるコードべク トル Bの番号を求め、 これをコードべクトル Bの符号とする, そして、 コードベク トル Aとコードベク トル Bの符号を合わせて、 ベク トル の符号 9 0 9とする,
更に探索部 9 0 7は、 コードべク トノレ A、 Bの符号に基づきべク トル符号 帳 8 9 9とベク トル符号帳 9 0 0から得られた復号化ベク トル A、 Bと、 ァ ンプ格納部 9 0 8から得られたアンプリチユードと、 状態格納部 9 0 3に格 納された過去の復号化べク トルを用いてベタ トルの複号化を行ない、 得られ た合成ベク トルを用いて状態格納部 9 0 3の内容を更新する (したがって、 次の符号化を行なう時には、 ここで復号化したべク トルが予測に使用され る ) 本実施の形態の予測 (予測次数 1次、 固定係数) における復号化は以 下の数式 (1 9 ) により行なう
Z ( i ) = C 1 N ( i ) + a N · C 2 M ( i ) + j3 D ( i ) ( 1 9 ) Z ( i ) :復号化ベク トル (次の符号化時に D ( i ) として使用される) N : コ一ドべク トル Aの符号
VI:コードべク トル 13の符号 C 1 ( i ) :復号化べク トル A
C 2 VI ( i ) :複号化べク トル B
a N : コ一ドべク トル Aの符号に対応するアンプリチュード
β :予測係数 (スカラー量)
D ( i ) : 1つ前のフレームの合成ベク トル
i :ベタトルの次数
また、 アンプ格納部 9 0 8に格納するアンプリチュードは予め設定してお くが、 この設定方法について以下に示す.、 アンプリチユードは多くの音声デ —タに対して符号化を行ない、 1段目のコードべク トルの各符号について以 下の数式 (2 0 ) の符号化歪の合計を求め、 これが最小になるように学習す ることによって設定する-.
EN = y(Y(( i)― CAN(i )― aNClm i))2 (20)
E N : コ一ドべクトル Aの符号が Nである場合の符号化歪
N : コ一ドべク トル Aの符号
t :コードベク トル Aの符号が Nである時間
Y f. ( i ) :時間 tにおける予測誤差べク トル
C 1 N ( i ) :復号化べクトル A
a N : コ一ドべク トル Aの符号に対応するアンプリチュード
C 2 m , ( i ) : コー ドべク 卜ノレ B
m , :コードベク トル Bの番号
i :べク トルの次数
I :ベタトルの長さ
すなわち、 符号化後、 上記数式 (2 0 ) の歪を各アンブリチユードで微分 した値がゼロになるように設定し直すことでアンブリチユードの学習を行な うつ そして、 上記符号化 +学習を繰り返すことによって、 最も適当なアンプ リチュードの値を求める
—方、 復号器 (デコーダ) では、 伝送されてきたべク トルの符号に基づい てコードべク トルを求めることによって復号化する., 復号器は符号器と同じ ベク トル符号帳 (コードベク トル A、 Bに対応) とアンプ格納部と状態格納 部とを有し、 上記符号化アルゴリズムにおける探索部 (コードベク トル Bに 対応) の復号化機能と同様のアルゴリズムで復号化を行なう。
したがって、 本実施の形態では、 アンプ格納部と距離計算部の特徴により 比較的少ない計算量で 2段目のコードベク トルを 1段目に適応させることで 符号化歪をより小さくすることが出来る,
なお、 これまでは本発明を携帯電話等で用いられる低ビットレート音声符 号化技術へ適応した場合の説明を行なったが、 本発明は音声符号化だけでな く、 楽音符号化装置や画像符号化装置における比較的補間性の良いパラメ一 タのべクトル量子化にも用いることもできる。
(第 7の実施の形態)
次に本発明の第 7の実施の形態にかかる C E L P型音声符号化装置につい て説明する— 本実施の形態は、 A C E L Pタイプの雑音符号帳を用いる場合 における符号探索演算量を削減可能な符号化装置の例である、
図 1 3に、 本実施の形態にかかる C E L P型音声符号化装置の機能ブロッ クを示す この C E L P型音声符号化装置では、 入力音声信号 1 0 0 1に対 してフィルタ係数分析部〗 0 0 2は、 線形予測分析などを行って合成フィル タの係数を得、 得られた合成フィルタの係数をフィルタ係数量子化部 1 0 0 3へ出力す.る フィルタ係数量子化部 1 0 0 3は、 入力された合成フィルタ の係数を量子化して合成フィルタ 1 0 0 4へ出力する。
合成フィルタ 1 0 0 4は、 フィルタ係数量子化部 1 0 0 3から供給される フィルタ係数によって構築されるもので、 適応符号帳 1 0 0 5からの出力で ある適応べク トル 1 0 0 6に適応ゲイン 1 0 0 7を乗じたものと、 雑音符号 帳 1 0 0 8からの出力である雑音べク トル 1 0 0 9に雑音ゲイン 1 0 1 0を 乗じたものとを加算して得られる励振信号 1 0 1 1によって駆動される ここで、 適応符号帳 1 0 0 5とは合成フィルタに対する過去の励振信号を ピッチ周期毎に取り出した適応べク トルを複数個格納した符号帳であり、 雑 音符号帳 1 0 0 7とは雑音べク トルを複数個格納した符号帳である, 雑音符 号帳 1 0 0 7は上述した第 1の実施の形態の音源べク トル生成装置を用いる ことができる。
歪み計算部 1 0 1 3は、 励振信号 1 0 1 1によって駆動された合成フィル タ 1 0 0 4の出力である合成音声信号 1 0 1 2と入力音声信号 1 0 0 1との 間の歪みを算出し、 符号探索処理を行う 符号探索処理とは、 歪み計算部 1 0 1 3で算出される歪みを最小化するための適応べク トル 1 0 0 6の番号と 雑音べク トル 1 0 0 9の番号を特定すると同時に、 各出力べク トルに乗じる 適応ゲイン 1 0 0 7と雑音ゲイン 1 0 1 0の最適値を算出する処理である, 符号出力部 1 0 1 4は、 フィルタ係数量子化部 1 0 0 3から得られるフィ ルタ係数の量子化値と、 歪み計算部 1 0 1 3において選択された適応べク ト ル 1 0 0 6の番号および雑音ベク トル 1 0 0 9の番号と、 それぞれに乗じる 適応ゲイン 1 0 0 7および雑音ゲイン 1 0 0 9を符号化したものを出力する 符号出力部 1 0 1 4から出力されたものが、 伝送もしくは蓄積される.
なお、 歪み計算部 1 0 1 3での符号採索処理では、 通常、 まず励振信号中 の適応符号帳成分の探索が行われ、 次に励振信号中の雑音符号帳成分の探索 が行われる、
上記雑音符号帳成分の探索は、 以下に説明する直交化探索を使用する。 直交化探索では、 数式 (2 1 ) の探索基準値 E ort ( = Nort/ Dort) を最 大化する雑音べク トル cを特定する。 χ)
Figure imgf000040_0001
N o r t : E o r tの分子項 D o r t : E o r tの分母項
p :既に特定されている適応べク トル
H:合成フィルタの係数行列
Η' : Ηの転置行列
X :ターゲット信号 (入力音声信号から合成フィルタのゼロ入力 応答を差分したもの)
c :雑音べク トル
直交化探索は、 事前に特定された適応べク トルに対して候補となる雑音べ ク トルをそれぞれ直交化し、 直交化した複数の雑音べク トルから歪みを最小 にするものを 1つ特定する採索方法であり、 非直交化探索に比べて雑音べク トルの特定精度を上げることができ、 合成音声信号の品質を向上できるとい う点に特徴を有している,
AC E L Ρ方式においては、 雑音べク トルが少数本の極性付きパルスのみ によって構成されている このことを利用して、 数式 (2 1) で示される探 索基準値の分子項 (Nort) を以下の数式 (22) に変形することで分子項の 演算を削減できる-
Nort= {^1,)+^)+-+ anA Al^ )}2 (22) a s : i本目パルスの極性 (+ 1Z— 1)
1 . : i本目バルスの位置
N :パルス本数
φ { ( p ' H 'H p) X - ( X Ή p ) H p } 【I 数式 (22) の Φの値を前処理として予め計算し配列に展開しておけば、 数式 (2 1) の分子項を、 配列 φ內の (N— 1) 個の要素を符号付き加算し、 その結果を 2乗することで計算できる
次に、 分母項について演算量を削減可能な歪み計算部 1 0 1 3について具 体的に説明する。
図 14に歪み計算部 1 0 1 3の機能ブロックを示す、 なお、 本実施の形態 における音声符号化装置は、 図 1 3の構成において適応べク トル 1 006及 び雑音べク トル 1 009を歪み計算部 1 01 3に入力する構成である。
図 1 4においては、 入力される雑音べク トルについて歪みを算出する際の 前処理として、 以下の 3つの処理を行う。
(1) 第 1の行列 (N) の算出 :適応ベク トルを合成フィルタで合成した ベク トルのパヮ (ρ -ΓΗρ) と、 合成フィルタのフィルタ係数の自己相関行 列 (Η'Ή) とを計算し、 上記自己相関行列の各要素に上記パヮを乗じて行列 Ν (= ( ρ'ΗΉ ρ) Ι-ΓΗ) を算出する
(2) 第 2の行列 (VI) の算出 :適応べク トルを合成フィルタで合成した べク トルを時間逆順化合成し、 その結果得られた信号 (Ρ [Ι-ΡΗ) の外積をと つて行列 VIを算出する
(3) 第 3の行列 (L) の生成: ( 1) で算出した行列 Nから、 (2) で 算出した行列 Viを差分して行列 Lを生成する -,
また、 数式 (2 1) の分母項 (Dort) は数式 (23) の様に展開すること ができる,
D o r t = ( c * H 1 H c ) ( p f H H p ) 一 ( p Ή 1 H c ) 2 (23)
= c N c— ( r ' c ) 2
= c ' N c - ( r ' c ) 1 ( r ' c )
= c N c— (c ' r r ' c)
= c f N c— ( c 'Me)
= c ' (N- ) c
= c r' L c
N : ( p ' I- 1 'Hp) H ' I- 1 —上記前処理 ( 1 )
r : p 1 H * H —上記前処理 ( 2 )
VI : r r ' —上記前処理 ( 2 ) L : N-M -上記前処理 (3) c :雑音べク トル
これにより、 数式 (2 1 ) の探索基準値 (Eort) を計算する際の分母項 (D ort) の計算方法が数式 (2 3) に置き換えられ、 より少ない演算量で雑音符 号帳成分を特定することが可能になる
上記前処理により得られた行列 Lと、 雑音べク トル 1 00 9とを用いて、 分母項の計算を行う
ここでは、 簡単のため、 入力音声信号のサンプリング周波数を 8000Hz、 A 1 g e b r a i c構造の雑音符号帳探索の単位時間幅(フレーム時間)を 10ms、 雑音べク トルが 10ms あたり 5本の単位パルス (+1 -1) の規則的な組合せ で作成される場合について、 数式 (2 3) に基づく分母項の計算方法を説明 する。
なお、 雑音ベク トルを構成する 5本の単位パルスは、 表 2に示した第 0か ら第 4グループごとに規定される位置から 1本ずつ選択された位置にたつパ ルスによって構成されており、 雑音ベク トル候補 cは以下の数式 (24) に よって記述できるものとする
し = a 0 S ^ k— I 0) + a , δ ( k— I , Η h a 4 δ ( k - (24)
(k = 0, 1 , ··· 79)
a; :グループ iに属するパルスの極性 (+ 1 / 1 ) 1 , :グループ iに属するパルスのィ 置
表 2
Figure imgf000043_0001
このとき、 数式 (2 3) で示される分母項 (Dort) を、 以下の数式 (2 5) .よって求めるこ とが可能となる、
Figure imgf000044_0001
a; :グループ iに属するパルスの極性 (+ 1 /— 1 )
1 , :グループ iに属するパルスの位置
L ( 1 ;, 1 j ) :行列 Lの 1 行 1 j列要素
以上の説明により、 A C E L Pタイプの雑音符号帳を用いた場合、 数式 (2 1 ) の符号探索基準値の分子項 (Nort)は数式(2 2 )によって計算可能であり、 一方、 分母項 (Dort)は数式 (2 5 ) によって計算可能であることがわかる-, 従 つて、 A C Eし Pタイプの雑音符号帳を用いた場合、 数式 (2 1 ) の基準値 をそのまま計算するのではなく、 分子項は数式 (2 2 ) によって、 分母項は 数式 (2 5 ) によってそれぞれ計算することで、 大幅に符号探索演算量を削 減することが可能になる,
なお、 これまでに説明した本実施の形態は、 予備選択を伴わない雑音符号 帳探索についての説明であつたが、 数式 (2 2 ) の値を大きくするような雑 音べク トルを予備選択し、 予備選択によって複数候補に絞り込まれた雑音べ ク トルに対して数式 (2 1 ) を計算して、 その値を最大化する雑音べク トル を本選択する場合に本発明を適用しても、 同効果が得られる

Claims

請求の範囲
1. 音源べク トルを生成する装置において、
パルスべク トルを生成- ( N≥ 1 ) 有するパル
5 スベタ トル生成手段と、
N個のチャネルに対応してチャネル毎に VI種類 (\ ≥ 1 ) の拡散パタン が格納された格納手段と、
前記格納手段から拡散パタンをチャネル毎に選択的に取出す選択手段と、 取出された拡散パタンと生成されたパルスべク トルとの重畳演算をチヤ0 ネルごとに行って N個の拡散べク トルを生成する拡散手段と、
生成された N個の拡散べク トルから音源べク トルを生成する音源べク ト ル生成手段と、 を具備する音源べク トル生成装置。
2. 請求項 1に記載の音源べク トル生成装置において、
前記パルスべク トル生成手段は、 N個のパルスべク トルを代数的に生成す5 ることを特徴とする音源ベク トル生成装置,,
3. 請求項 1に記載の音源べク トル生成装置において、
前記拡散手段は、 下式に基づいた重畳演算にて、 チャネル毎に拡散べク ト ルを生成することを特徴とする音源べク トル生成装置。
ci(n) = wij(n一 κ )di{k) 但し、 n : 0〜L— 1
0 L :拡散べク トル長
i :チャネル番号
j :拡散パタン番号 (j = 1〜M)
c i :チャネル iの拡散べク トル
\^ 1 :1 :チャネル j種目の拡散パタン
ί> d i :チヤネノレ i のノ レスべク トノレ d i = ± S ( n— p i ) 、 n = 0〜し— 1、
p i :チャネル i のパルス位置候補
4. 請求項 1に記載の音源べク トル生成装置において、
前記音源べク トル生成手段は、 下式に基づいて N個の拡散べク トルから 1 つの音源べク トルを生成することを特徴とする音源べク トル生成装置„
,、'
C :音源べク トル
c i :拡散べクトル
i : チャネル番号 ( i = 1〜N )
n :ベク トル要素番号 (n = 0〜L— l :伹し、 Lは音源ベク トル長) 5. 音声情報を符号化するための C E L P型音声符号化装置において、
請求項 1に記載の音源べク トル生成装置を備え、 雑音音源情報をべク 卜 ル量子化するために用いられる雑音符号帳と、
前記音源べク トル生成装置から出力される音源べク トルを雑音符号べク トルとして用いて合成音声を生成する合成フィルタと、
生成された合成音声と入力音声との量子化歪みを計算する歪み計算器と、 パルスべク トルを構成するパルスのパルス位置及ぴパルス極性と拡散パ タンとの組み合せを切替える手段と、
前記歪み計算器で算出される量子化歪みが最小になるパルス位置、 ノぺノレ ス極性、 拡散バタンの組み合せを特定して雑音符号番号を発生させる手段と、 を具備する C E L P型音声符号化装置-,
6. 請求項 5に記載の C E L P型音声符号化装置において、
雑音音源情報をべク トル量子化した際に生じる量子化歪みをより小さく するように予め学習して得られた拡散パタンが、 前記音源べク トル生成装置 内の格納手段に格納されていることを特徴とする C E L P型音声符号化装置。
7. 請求項 6に記載の C E L P型音声符号化装置において、 前記音源べク トル生成装置内の格納手段は、 学習によって得られた拡散 パタンを各チャネル毎に少なくとも 1種類格納していることを特徴とする C E L P型音声符号化装置。
8. 請求項 7に記載の C E L P型音声符号化装置において、
適応音源情報をべク トル量子化した時に算出された理想適応符号ゲイン の値が予め設定しておいたしきい値より大きい場合には、 学習によって得ら れた拡散バタンを選択することを特徴とする C E L P型音声符号化装置 n
9. 請求項 7に記載の C E L P音声符号化装置において、
前フレームの復号化適応音源ゲインの値が予め設定しておいたしきい値 より大きい場合には、 学習によって得られた拡散パタンを選択することを特 徴とする C E L P型音声符号化装置。
10. 請求項 5に記載の C E L P型音声符号化装置において、
前記音源べク トル生成装置内の格納手段は、 各チャネルにおいて拡散パ タンのうち少なくとも 1種類が、 乱数べク トル系列により形成されるランダ ムパタンであることを特徴とする C E L P型音声符号化装置。
11. 請求項 5に記載の C E L P型音声符号化装置において、
前記音源べク トル生成装置内の格納手段は、 各チャネルにおいて拡散パ タンのうち少なくとも 1種類が雑音音源情報をべク トル量子化する際に生じ る量子化歪みをより小さくするように予め学習して得られた拡散パタンであ り、 かつ、 少くとも "!種類がランダムパタンであることを特徴とする C E L P型音声符号化装置つ
12. 請求項 1 1に記載の C E L P型音声符号化装置において、
適応符号番号を特定した際に生じた符号化歪みのパヮが予め設定してお いたしきい値より大きい場合には、 ランダムパタンの拡散べク トルを選択す ることを特徴とする C E L P型音声符号化装置。
13. 請求項 5に記載の C E L P型音声符号化装置において、
各チャネルで選択された拡散バタンの組合せを示す組合せ番号を、 雑音 音源情報をべク トル量子化した際に生じる量子化歪みが最小化されるように、 拡散パタンのとり うる ντΝ通りの全組合せ中から特定することを特徴とする C E L P型音声符号化装置
14. 請求項 1 3に記載の C E L P型音声符号化装置において、
各チャネルで選択された拡散パタンの組合せを示す組合せ番号を、 雑音 音源情報のベク トル量子化した際に生じる量子化歪みが最小化されるように、 あらかじめ求まっている音声パラメ一タを用いて拡散パタンの組合せを予備 選択し、 予備選択された拡散パタンの組合せの中から特定することを特徴と する C E L P型音声符号化装置。
15. 請求項 1 4に記載の C E L P型音声符号化装置において、
音声区間の分析結果に応じて、 予備選択する拡散パタンの組合せを切り 替えることを特徴とする C E L P型音声符号化装置。
16. 請求項 5に記載の C E L P型音声符号化装置において、
符号化対象フレームを分析して得られた音声パラメータのパラメータべ ク トルと、 符号化対象フレームよりも未来のフレームを分析して得られたパ ラメ一タべク トルと、 符号化対象フレームよりも前のフレームの複号化べク トルとを用いて量子化タ一ゲットべク トルを算出するターゲット抽出手段と、 算出された量子化ターゲットべク トルを符号化して符号化対象フレーム の符号を得るベタ トル量子化手段と、 を具備する C E L P型音声符号化装置.-.
17. 請求項 1 6に記載の C E L P型音声符号化装置において、
前記タ一ゲッ ト抽出手段は、 下式に基づいて量子化ターゲッ トべク トルを 算出する C E L P型音声符号化装置つ
^( = {^,( + P(d( i) + 2} / (1 + p)
X ( i ) :量子化ターゲットベク トル
i :べク トルの要素番号
S t. ( i ) 、 S i ) :パラメータべク トル
t :時間 (フレーム番号) P :重み付け係数 (固定)
d ( i ) :前フレームの復号化ベク トル
18. 請求項 1 6に記載の C E L P型音声符号化装置において、
符号化対象フレームの符号を復号して複号化べク トルを生成する手段と、 前記復号化べク トルと前記符号化対象フレームのバラメータべク トルと から符号化歪を計算する第 2歪み計算器と、
前記符号化歪が基準値以上の場合、 前記ターゲット抽出手段に供給され る符号化対象フレームのパラメ一タべク トルを平滑化するべク トル平滑化手 段と、 を具備する C E L P型音声符号化装置。
19. 請求項 1 8に記載の C E L P型音声符号化装置において、
前記第 2歪み計算器は、 下式に基づいて聴感重み付けされた符号化歪を計 算する C E L P型音声符号化装置。
Ew =∑iV(i)-S,(i))2 + p{V{i)-{d{i) + Sl+,{i)l2f
Ew:聴感重み付け符号化歪
S , ( i ) , Sい, ( i ) :パラメ一タべク トル
t :時間 (フレーム番号)
i :べクトルの要素番号
V ( i ) :復号化べク トル
P :重み付け係数
d ( i ) :前フレームの復号化ベク トル
20. 請求項 1 6に記載の C E L P型音声符号化装置において、
前記べク トル量子化手段は、
多段べク トル量子化の各段に対応して設けられ、 複数のコードべク トル が格納された複数の符号帳と、
量子化ターゲットべク トル又はその予測誤差べク トルと 1段目の符号帳 に格納されたコードべク トルとの距離を計算して 1段目の符号を取得する手 段と、 1段目の符号帳に格納されたコードべク トルに対応する、 スカラー量で 表されるアンプリチユードが格納されたアンプ格納部と、
2段目の符号化を行う前に、 1段目の符号に依存したアンブリチュード を前記アンプ格納部から取出して 2段目の符号帳に格納されたコードべク 卜 ルに乗算する手段と、
1段目の符号から復号された復号化べク トルと 2段目の符号帳に格納さ れアンプリチュードが乗算されたコードべク トルとの距離を計算して 2段目 の符号を取得する手段と、 を具備する C E L P型音声符号化装置。
21. 請求項 5に記載の C E L P型音声符号化装置において、
前記 C E L P型音声符号化装置は、
入力音声のピッチ成分を表現する適応べク トルが格納された適応符号帳 を備え、
前記歪み計算器は、
前記適応べク トルを前記合成フィルタで合成した信号のパヮと、 前記合 成フィルタのフィルタ係数の自己相関行列とを計算して前記自己相関行列の 各要素に前記パヮを乗じた第 1の行列を算出する手段と、
前記適応べク トルを前記合成フィルタで合成した信号を時間逆順化合成 し、 時間逆順化合成した信号の外積をとつて第 2の行列を算出する手段と、 前記第 1 の行列から前記第 2の行列を差分して第 3の行列を生成する手 段とを備え、 前記第 3の行列を用いて歪みを計算することを特徴とする C E L P型音声符号化装置,,
22. 音声情報を復号化するための C E L P型音声複号化装置において、
請求項 1に記載の音源べク トル生成装置を備え、 拡散パタンの組合せ番 号とパルスべク トルの組合せ番号とを特定した雑音符号番号にしたがって拡 散パタンを選択し、 かつ、 パルスベク トルを生成する雑音符号帳と、
前記音源べク トル生成装置から出力される音源べク トルを雑音符号べク トルとして用いて合成音声を生成する合成フィルタと、 を具備する C E L P 型音声複号化装置。
23. 請求項 2 2に記載の C E L P型音声復号化装置において、
雑音音源情報をべク トル量子化した際に生じる量子化歪みをより小さくす るように予め学習して得られた拡散パタンが、 前記音源べク トル生成装置内 の格納手段に格納されていることを特徴とする C E L P型音声復号化装置。
24. 請求項 2 3に記載の C E L P型音声複号化装置において、
前記音源べク トル生成装置内の格納手段は、 学習によって得られた拡散パ タンを各チャネル毎に少なくとも 1種類格納していることを特徴とする C E L P型音声復号化装置
25. 請求項 2 2に記載の C E L P型音声復号化装置において、
前記音源べク トル生成装置内の格納手段は、 各チャネルにおいて拡散パタ ンのうち少なくとも 1種類が、 乱数べク トル系列により形成されるランダム パタンであることを特徴とする C E L P型音声復号化装置。
26. 請求項 2 2に記載の C E L P型音声復号化装置において、
前記音源べク トル生成装置内の格納手段は、 各チャネルにおいて拡散パタ ンのうち少なくとも 種類が雑音音源情報をべク トル量子化する際に生じる 量子化歪みをより小さくするように予め学習して得られた拡散バタンであり、 かつ、 少くとも 1種類がランダムバタンであることを特徴とする C E L P型 音声復号化装置
27. 音源べク トルを生成する方法において、
Nチャネル (N≥ l ) のパルスベク トルを生成するステップと、
N個のチャネルに対応してチャネル毎に M種類 (M≥ l ) の拡散パタン が格納された格納手段から拡散パタンをチヤネル毎に選択的に取出すステツ プと、
取出された拡散パタンと生成されたパルスべク トルとの重畳演算をチヤ ネルごとに行って N個の拡散べクトルを生成するステップと、
生成された N個の拡散べク トルから音源べク トルを生成するステップと、 を具備する音源べク トル生成方法、
28. 音声情報を C E L P方式で符号化するための方法において、
請求項 1に記載の音源べク トル生成装置を用いて雑音音源情報をべク ト ル量子化するための雑音符号べタ トルを生成するステップと、
前記音源べク トル生成装置から出力される音源べク トルを雑音符号べク トルとして用いて合成音声を生成するステップと、
生成された合成音声と入力音声との量子化歪みを計算するステップと、 パルスべク トルを構成するパルスのパルス位置及びパルス極性と拡散パ タンとの組み合せを切替えるステップと、
量子化歪みが最小になるパルス位置、 バルス極性、 拡散パタンの組み合 せを特定するステップと、 を具備する音声符号化方法,
29. C E L P方式で符号化された音声情報を復号化するための方法において、 請求項 1に記載の音源べク トル生成装置を用いて雑音符号べク トルを生 成するステップと、
前記音源べク トル生成装置から出力される音源べク トルを雑音符号べク トルとして用いて合成音声を生成するステツフと、 を具備する音声復号化方 法
30. 入力べクトルをべクトル量子化する方法において、
時間的に連続した複数のべク トルからなる入力べク トルと過去の復号化 べク トルとから量子化タ一ゲットべク トルを算出するステップと、
前記量子化ターゲットべク トルを符号化して符号を得ると共に、 前記符 号を復号化して復号化べク トルを得るステップと、
得られた復号化べクトルと前記入力べク トルとから歪を計算するステツ プと、
前記歪みを最小化する符号を特定するステップと、
復号化べク トルを格納するステップと、
最終的な符号に対応する復号化べク トルによって復号化べク トルを更新 するステップと、 を具備するベク トル量子化方法つ
31. 請求項 5に記載の C E L P型音声符号化装置を備えた通信装置。
32. 請求項 2 2に記載の C E L P型音声復号化装置を備えた通信装置
PCT/JP1998/004777 1997-10-22 1998-10-22 Sound encoder and sound decoder WO1999021174A1 (en)

Priority Applications (17)

Application Number Priority Date Filing Date Title
EP98950336A EP0967594B1 (en) 1997-10-22 1998-10-22 Sound encoder and sound decoder
KR10-2003-7013816A KR100527217B1 (ko) 1997-10-22 1998-10-22 확산 벡터 생성 방법, 확산 벡터 생성 장치, celp형 음성 복호화 방법 및 celp형 음성 복호화 장치
DE69836624T DE69836624T2 (de) 1997-10-22 1998-10-22 Audiokodierer und -dekodierer
CA002275266A CA2275266C (en) 1997-10-22 1998-10-22 Speech coder and speech decoder
KR1019997005510A KR100651438B1 (ko) 1997-10-22 1998-10-22 음성 부호화 장치, celp 음성 부호화 방법, 대수적 구조 음원의 직교화 탐색 방법
CNB2005100062028A CN100349208C (zh) 1997-10-22 1998-10-22 扩散矢量生成方法及扩散矢量生成装置
US09/319,933 US6415254B1 (en) 1997-10-22 1998-10-22 Sound encoder and sound decoder
HK00104635A HK1025417A1 (en) 1997-10-22 2000-07-26 Sound encoder and sound decoder
US10/133,735 US7024356B2 (en) 1997-10-22 2002-04-29 Speech coder and speech decoder
US10/614,834 US7373295B2 (en) 1997-10-22 2003-07-09 Speech coder and speech decoder
US11/125,184 US7590527B2 (en) 1997-10-22 2005-05-10 Speech coder using an orthogonal search and an orthogonal search method
US11/281,386 US7499854B2 (en) 1997-10-22 2005-11-18 Speech coder and speech decoder
US11/508,849 US7546239B2 (en) 1997-10-22 2006-08-24 Speech coder and speech decoder
US11/776,823 US7533016B2 (en) 1997-10-22 2007-07-12 Speech coder and speech decoder
US12/357,093 US8332214B2 (en) 1997-10-22 2009-01-21 Speech coder and speech decoder
US12/362,232 US7925501B2 (en) 1997-10-22 2009-01-29 Speech coder using an orthogonal search and an orthogonal search method
US12/783,974 US8352253B2 (en) 1997-10-22 2010-05-20 Speech coder and speech decoder

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP28941297A JP3235543B2 (ja) 1997-10-22 1997-10-22 音声符号化/復号化装置
JP9/289412 1997-10-22
JP9/295130 1997-10-28
JP29513097A JP3175667B2 (ja) 1997-10-28 1997-10-28 ベクトル量子化法
JP10/85717 1998-03-31
JP08571798A JP3174756B2 (ja) 1998-03-31 1998-03-31 音源ベクトル生成装置及び音源ベクトル生成方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
US09/319,933 A-371-Of-International US6415254B1 (en) 1997-10-22 1998-10-22 Sound encoder and sound decoder
US09319933 A-371-Of-International 1998-10-22
US10/133,735 Continuation US7024356B2 (en) 1997-10-22 2002-04-29 Speech coder and speech decoder

Publications (2)

Publication Number Publication Date
WO1999021174A1 true WO1999021174A1 (en) 1999-04-29
WO1999021174A8 WO1999021174A8 (en) 1999-07-01

Family

ID=27304940

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/004777 WO1999021174A1 (en) 1997-10-22 1998-10-22 Sound encoder and sound decoder

Country Status (8)

Country Link
US (10) US6415254B1 (ja)
EP (12) EP1746583B1 (ja)
KR (10) KR100925084B1 (ja)
CN (1) CN100349208C (ja)
CA (3) CA2275266C (ja)
DE (8) DE69836624T2 (ja)
HK (10) HK1025417A1 (ja)
WO (1) WO1999021174A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1083547A1 (en) * 1999-03-05 2001-03-14 Matsushita Electric Industrial Co., Ltd. Sound source vector generator and voice encoder/decoder

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1071081B1 (en) * 1996-11-07 2002-05-08 Matsushita Electric Industrial Co., Ltd. Vector quantization codebook generation method
EP1746583B1 (en) * 1997-10-22 2008-09-17 Matsushita Electric Industrial Co., Ltd. Sound encoder and sound decoder
SE0001727L (sv) * 2000-05-10 2001-11-11 Global Ip Sound Ab Överföring över paketförmedlade nät
CN1202514C (zh) 2000-11-27 2005-05-18 日本电信电话株式会社 编码和解码语音及其参数的方法、编码器、解码器
JP3404016B2 (ja) * 2000-12-26 2003-05-06 三菱電機株式会社 音声符号化装置及び音声符号化方法
US7206739B2 (en) * 2001-05-23 2007-04-17 Samsung Electronics Co., Ltd. Excitation codebook search method in a speech coding system
JP4299676B2 (ja) * 2002-02-20 2009-07-22 パナソニック株式会社 固定音源ベクトルの生成方法及び固定音源符号帳
KR100446630B1 (ko) * 2002-05-08 2004-09-04 삼성전자주식회사 음성신호에 대한 벡터 양자화 및 역 벡터 양자화 장치와그 방법
CA2415105A1 (en) * 2002-12-24 2004-06-24 Voiceage Corporation A method and device for robust predictive vector quantization of linear prediction parameters in variable bit rate speech coding
US7693707B2 (en) * 2003-12-26 2010-04-06 Pansonic Corporation Voice/musical sound encoding device and voice/musical sound encoding method
US7668712B2 (en) * 2004-03-31 2010-02-23 Microsoft Corporation Audio encoding and decoding with intra frames and adaptive forward error correction
JP4445328B2 (ja) 2004-05-24 2010-04-07 パナソニック株式会社 音声・楽音復号化装置および音声・楽音復号化方法
US20060136202A1 (en) * 2004-12-16 2006-06-22 Texas Instruments, Inc. Quantization of excitation vector
BRPI0611430A2 (pt) * 2005-05-11 2010-11-23 Matsushita Electric Ind Co Ltd codificador, decodificador e seus métodos
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
BRPI0612579A2 (pt) * 2005-06-17 2012-01-03 Matsushita Electric Ind Co Ltd pàs-filtro, decodificador e mÉtodo de pàs-filtraÇço
WO2007000988A1 (ja) * 2005-06-29 2007-01-04 Matsushita Electric Industrial Co., Ltd. スケーラブル復号装置および消失データ補間方法
ATE520121T1 (de) * 2006-02-22 2011-08-15 France Telecom Verbesserte celp kodierung oder dekodierung eines digitalen audiosignals
WO2007114290A1 (ja) * 2006-03-31 2007-10-11 Matsushita Electric Industrial Co., Ltd. ベクトル量子化装置、ベクトル逆量子化装置、ベクトル量子化方法及びベクトル逆量子化方法
WO2008023682A1 (fr) * 2006-08-22 2008-02-28 Panasonic Corporation Décodeur de sortie pondéré, décodeur itératif et procédé de calcul de valeur de décision pondérée
JP5061111B2 (ja) * 2006-09-15 2012-10-31 パナソニック株式会社 音声符号化装置および音声符号化方法
JPWO2008047795A1 (ja) * 2006-10-17 2010-02-25 パナソニック株式会社 ベクトル量子化装置、ベクトル逆量子化装置、およびこれらの方法
WO2008049221A1 (en) * 2006-10-24 2008-05-02 Voiceage Corporation Method and device for coding transition frames in speech signals
CN101502122B (zh) 2006-11-28 2011-06-01 松下电器产业株式会社 编码装置及编码方法
WO2008065814A1 (en) * 2006-11-30 2008-06-05 Panasonic Corporation Coder
EP2099025A4 (en) * 2006-12-14 2010-12-22 Panasonic Corp AUDIO CODING DEVICE AND AUDIO CODING METHOD
JP5241701B2 (ja) * 2007-03-02 2013-07-17 パナソニック株式会社 符号化装置および符号化方法
CN100583649C (zh) * 2007-07-23 2010-01-20 华为技术有限公司 矢量编/解码方法、装置及流媒体播放器
US8169992B2 (en) 2007-08-08 2012-05-01 Telefonaktiebolaget Lm Ericsson (Publ) Uplink scrambling during random access
CN101335004B (zh) * 2007-11-02 2010-04-21 华为技术有限公司 一种多级量化的方法及装置
WO2009114656A1 (en) * 2008-03-14 2009-09-17 Dolby Laboratories Licensing Corporation Multimode coding of speech-like and non-speech-like signals
US20100238984A1 (en) * 2009-03-19 2010-09-23 Motorola, Inc. Spatial Information Feedback in Wireless Communication Systems
US20110085588A1 (en) * 2009-10-09 2011-04-14 Motorola-Mobility, Inc. Method for precoding based on antenna grouping
US8873650B2 (en) * 2009-10-12 2014-10-28 Motorola Mobility Llc Configurable spatial channel information feedback in wireless communication system
WO2011052221A1 (ja) 2009-10-30 2011-05-05 パナソニック株式会社 符号化装置、復号装置、およびそれらの方法
US9123334B2 (en) 2009-12-14 2015-09-01 Panasonic Intellectual Property Management Co., Ltd. Vector quantization of algebraic codebook with high-pass characteristic for polarity selection
US9203489B2 (en) 2010-05-05 2015-12-01 Google Technology Holdings LLC Method and precoder information feedback in multi-antenna wireless communication systems
US8509338B2 (en) 2010-05-05 2013-08-13 Motorola Mobility Llc Method and precoder information feedback in multi-antenna wireless communication systems
US8537658B2 (en) 2010-08-16 2013-09-17 Motorola Mobility Llc Method of codebook design and precoder feedback in wireless communication systems
US9972325B2 (en) 2012-02-17 2018-05-15 Huawei Technologies Co., Ltd. System and method for mixed codebook excitation for speech coding
EP3547261B1 (en) * 2012-03-29 2023-08-09 Telefonaktiebolaget LM Ericsson (publ) Vector quantizer
US9813262B2 (en) 2012-12-03 2017-11-07 Google Technology Holdings LLC Method and apparatus for selectively transmitting data using spatial diversity
US9591508B2 (en) 2012-12-20 2017-03-07 Google Technology Holdings LLC Methods and apparatus for transmitting data between different peer-to-peer communication groups
US9979531B2 (en) 2013-01-03 2018-05-22 Google Technology Holdings LLC Method and apparatus for tuning a communication device for multi band operation
US10229697B2 (en) 2013-03-12 2019-03-12 Google Technology Holdings LLC Apparatus and method for beamforming to obtain voice and noise signals
US9386542B2 (en) 2013-09-19 2016-07-05 Google Technology Holdings, LLC Method and apparatus for estimating transmit power of a wireless device
MY180722A (en) 2013-10-18 2020-12-07 Fraunhofer Ges Forschung Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information
CA2927722C (en) 2013-10-18 2018-08-07 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Concept for encoding an audio signal and decoding an audio signal using deterministic and noise like information
US9549290B2 (en) 2013-12-19 2017-01-17 Google Technology Holdings LLC Method and apparatus for determining direction information for a wireless device
EP3097245B1 (en) 2014-01-22 2019-10-16 InVue Security Products, Inc. Systems and methods for remotely controlling security devices
US9491007B2 (en) 2014-04-28 2016-11-08 Google Technology Holdings LLC Apparatus and method for antenna matching
US9478847B2 (en) 2014-06-02 2016-10-25 Google Technology Holdings LLC Antenna system and method of assembly for a wearable electronic device
CN108984849B (zh) * 2018-06-21 2023-12-22 深圳万知达科技有限公司 一种基于量子叠加态的量子比较器设计方法
TWI693419B (zh) * 2019-02-13 2020-05-11 國立交通大學 訊號處理方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02280200A (ja) * 1989-04-21 1990-11-16 Nec Corp 音声符号化復号化方式
JPH02282800A (ja) * 1989-04-25 1990-11-20 Nec Corp 音声符号化方式
JPH05108098A (ja) * 1991-10-16 1993-04-30 Matsushita Electric Ind Co Ltd 音声符号化装置
JPH06202699A (ja) * 1992-09-29 1994-07-22 Mitsubishi Electric Corp 音声符号化装置及び音声復号化装置及び音声符号化復号化方法
JPH0728497A (ja) * 1993-07-07 1995-01-31 Nec Corp 音声符号化装置並びにその分析器及び合成器
JPH088753A (ja) * 1994-06-16 1996-01-12 Nippon Telegr & Teleph Corp <Ntt> ベクトル符号復号方法
JPH09160596A (ja) * 1995-12-06 1997-06-20 Nec Corp 音声符号化装置
JPH1063300A (ja) * 1996-08-22 1998-03-06 Matsushita Electric Ind Co Ltd 音声復号化装置及び音声符号化装置

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US203734A (en) * 1878-05-14 Improvement in mechanical movements
US143432A (en) * 1873-10-07 Improvement in toy devices for making soap-bubbles
US4868867A (en) * 1987-04-06 1989-09-19 Voicecraft Inc. Vector excitation speech or audio coder for transmission or storage
US4965580A (en) * 1988-09-26 1990-10-23 Mitsubishi Denki Kabushiki Kaisha Quantizer and inverse-quantizer
US5307441A (en) * 1989-11-29 1994-04-26 Comsat Corporation Wear-toll quality 4.8 kbps speech codec
CA2010830C (en) * 1990-02-23 1996-06-25 Jean-Pierre Adoul Dynamic codebook for efficient speech coding based on algebraic codes
US5701392A (en) * 1990-02-23 1997-12-23 Universite De Sherbrooke Depth-first algebraic-codebook search for fast coding of speech
JPH0451200A (ja) * 1990-06-18 1992-02-19 Fujitsu Ltd 音声符号化方式
US5195137A (en) * 1991-01-28 1993-03-16 At&T Bell Laboratories Method of and apparatus for generating auxiliary information for expediting sparse codebook search
FI98104C (fi) 1991-05-20 1997-04-10 Nokia Mobile Phones Ltd Menetelmä herätevektorin generoimiseksi ja digitaalinen puhekooderi
US5396576A (en) * 1991-05-22 1995-03-07 Nippon Telegraph And Telephone Corporation Speech coding and decoding methods using adaptive and random code books
US5233660A (en) 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding
US5325519A (en) * 1991-10-18 1994-06-28 Texas Microsystems, Inc. Fault tolerant computer with archival rollback capabilities
DE69328450T2 (de) 1992-06-29 2001-01-18 Nippon Telegraph And Telephone Corp., Tokio/Tokyo Verfahren und Vorrichtung zur Sprachkodierung
US5448816A (en) * 1994-05-06 1995-09-12 Adcor Products, Inc. Tool and method for removing high heel tips
JP3224955B2 (ja) * 1994-05-27 2001-11-05 株式会社東芝 ベクトル量子化装置およびベクトル量子化方法
DE69526017T2 (de) * 1994-09-30 2002-11-21 Kabushiki Kaisha Toshiba, Kawasaki Vorrichtung zur Vektorquantisierung
US5699477A (en) * 1994-11-09 1997-12-16 Texas Instruments Incorporated Mixed excitation linear prediction with fractional pitch
JP3328080B2 (ja) 1994-11-22 2002-09-24 沖電気工業株式会社 コード励振線形予測復号器
ATE201943T1 (de) * 1995-02-03 2001-06-15 Koninkl Philips Electronics Nv Anordnung zum kodieren einer sequenz von (n-1)- bit informationswörtern in eine sequenz von n-bit kanalwörtern sowie dekodieranordnung zum dekodieren einer sequenz von n-bit kanalwörtern in eine sequenz von (n-1)-bit informationswörtern
JPH0934498A (ja) 1995-07-21 1997-02-07 Nippon Telegr & Teleph Corp <Ntt> 音響信号符号化方法
JP3196595B2 (ja) * 1995-09-27 2001-08-06 日本電気株式会社 音声符号化装置
JP3680380B2 (ja) * 1995-10-26 2005-08-10 ソニー株式会社 音声符号化方法及び装置
JP3364825B2 (ja) * 1996-05-29 2003-01-08 三菱電機株式会社 音声符号化装置および音声符号化復号化装置
CA2213909C (en) * 1996-08-26 2002-01-22 Nec Corporation High quality speech coder at low bit rates
EP1071081B1 (en) * 1996-11-07 2002-05-08 Matsushita Electric Industrial Co., Ltd. Vector quantization codebook generation method
US5974378A (en) * 1997-01-06 1999-10-26 Texas Instruments Incorporated Multi-stage vector quantization with efficient codebook search
TW408298B (en) * 1997-08-28 2000-10-11 Texas Instruments Inc Improved method for switched-predictive quantization
US6029125A (en) * 1997-09-02 2000-02-22 Telefonaktiebolaget L M Ericsson, (Publ) Reducing sparseness in coded speech signals
US6058359A (en) * 1998-03-04 2000-05-02 Telefonaktiebolaget L M Ericsson Speech coding including soft adaptability feature
EP1746583B1 (en) * 1997-10-22 2008-09-17 Matsushita Electric Industrial Co., Ltd. Sound encoder and sound decoder
US6301556B1 (en) * 1998-03-04 2001-10-09 Telefonaktiebolaget L M. Ericsson (Publ) Reducing sparseness in coded speech signals
JP3307875B2 (ja) 1998-03-16 2002-07-24 松下電送システム株式会社 符号化音声再生装置および符号化音声再生方法
US6148283A (en) * 1998-09-23 2000-11-14 Qualcomm Inc. Method and apparatus using multi-path multi-stage vector quantizer
US6302556B1 (en) * 2000-09-15 2001-10-16 Timothy K. Filip Decorative ceiling fan assembly
SG94735A1 (en) 2001-01-16 2003-03-18 Sumitomo Bakelite Co Container for electric device
JP4299676B2 (ja) * 2002-02-20 2009-07-22 パナソニック株式会社 固定音源ベクトルの生成方法及び固定音源符号帳
CN101359996B (zh) 2007-08-02 2012-04-04 华为技术有限公司 媒体业务呈现方法及通讯系统以及相关设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02280200A (ja) * 1989-04-21 1990-11-16 Nec Corp 音声符号化復号化方式
JPH02282800A (ja) * 1989-04-25 1990-11-20 Nec Corp 音声符号化方式
JPH05108098A (ja) * 1991-10-16 1993-04-30 Matsushita Electric Ind Co Ltd 音声符号化装置
JPH06202699A (ja) * 1992-09-29 1994-07-22 Mitsubishi Electric Corp 音声符号化装置及び音声復号化装置及び音声符号化復号化方法
JPH0728497A (ja) * 1993-07-07 1995-01-31 Nec Corp 音声符号化装置並びにその分析器及び合成器
JPH088753A (ja) * 1994-06-16 1996-01-12 Nippon Telegr & Teleph Corp <Ntt> ベクトル符号復号方法
JPH09160596A (ja) * 1995-12-06 1997-06-20 Nec Corp 音声符号化装置
JPH1063300A (ja) * 1996-08-22 1998-03-06 Matsushita Electric Ind Co Ltd 音声復号化装置及び音声符号化装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0967594A4 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1083547A1 (en) * 1999-03-05 2001-03-14 Matsushita Electric Industrial Co., Ltd. Sound source vector generator and voice encoder/decoder
EP1083547A4 (en) * 1999-03-05 2005-08-03 Matsushita Electric Ind Co Ltd SOUND SOURCE GENERATOR, LANGUAGE CODIER AND LANGUAGE DECODER
EP2239730A3 (en) * 1999-03-05 2010-12-22 Panasonic Corporation Speech Coding Apparatus
EP2237268A3 (en) * 1999-03-05 2010-12-22 Panasonic Corporation Speech coding/decoding apparatus

Also Published As

Publication number Publication date
HK1090465A1 (en) 2006-12-22
HK1097637A1 (en) 2007-06-29
EP1640970A3 (en) 2006-04-05
EP1755227A2 (en) 2007-02-21
KR20050090026A (ko) 2005-09-09
EP1684268A2 (en) 2006-07-26
CA2275266A1 (en) 1999-04-29
KR20070087152A (ko) 2007-08-27
DE69840855D1 (de) 2009-07-09
CA2684452C (en) 2014-01-14
EP1746582A1 (en) 2007-01-24
DE69839407T2 (de) 2008-09-04
US7590527B2 (en) 2009-09-15
EP1763019B1 (en) 2016-12-07
DE69836624D1 (de) 2007-01-25
US8332214B2 (en) 2012-12-11
EP1755227A3 (en) 2007-02-28
US20070255558A1 (en) 2007-11-01
KR100527217B1 (ko) 2005-11-08
DE69838305D1 (de) 2007-10-04
US7024356B2 (en) 2006-04-04
HK1122639A1 (en) 2009-05-22
US7533016B2 (en) 2009-05-12
US7499854B2 (en) 2009-03-03
CN100349208C (zh) 2007-11-14
EP1684268A3 (en) 2007-02-07
DE69840008D1 (de) 2008-10-23
US20090132247A1 (en) 2009-05-21
HK1025417A1 (en) 2000-11-10
KR20040005928A (ko) 2004-01-16
CA2275266C (en) 2005-06-14
US7925501B2 (en) 2011-04-12
EP1640970B9 (en) 2009-10-14
US20070033019A1 (en) 2007-02-08
KR20080078924A (ko) 2008-08-28
US20020161575A1 (en) 2002-10-31
EP1746583B1 (en) 2008-09-17
DE69839407D1 (de) 2008-06-05
KR20070087153A (ko) 2007-08-27
EP1752968A3 (en) 2007-02-21
KR20070087151A (ko) 2007-08-27
US20090138261A1 (en) 2009-05-28
EP1760695A2 (en) 2007-03-07
US20060080091A1 (en) 2006-04-13
EP1760694A2 (en) 2007-03-07
KR100872246B1 (ko) 2008-12-05
HK1090161A1 (en) 2006-12-15
DE29825254U1 (de) 2007-03-01
HK1104655A1 (en) 2008-01-18
KR20000069562A (ko) 2000-11-25
DE69836624T2 (de) 2007-04-05
EP1763019A1 (en) 2007-03-14
KR20080087152A (ko) 2008-09-30
EP1684268B8 (en) 2008-07-09
EP1640970B1 (en) 2007-08-22
EP1734512A2 (en) 2006-12-20
KR100886062B1 (ko) 2009-02-26
KR20080077032A (ko) 2008-08-20
KR100925084B1 (ko) 2009-11-05
EP1640970A2 (en) 2006-03-29
EP1752968B1 (en) 2008-09-10
EP2224597A1 (en) 2010-09-01
HK1099138A1 (en) 2007-08-03
EP2224597B1 (en) 2011-12-21
CA2684379A1 (en) 1999-04-29
US20050203734A1 (en) 2005-09-15
WO1999021174A8 (en) 1999-07-01
EP1684268B1 (en) 2008-04-23
HK1103843A1 (en) 2007-12-28
KR100938017B1 (ko) 2010-01-21
HK1101839A1 (zh) 2007-10-26
US6415254B1 (en) 2002-07-02
KR100900113B1 (ko) 2009-06-01
US7546239B2 (en) 2009-06-09
EP1734512A3 (en) 2007-01-17
KR100938018B1 (ko) 2010-01-21
EP1752968A2 (en) 2007-02-14
EP1746583A1 (en) 2007-01-24
CA2684452A1 (en) 1999-04-29
EP1755227B1 (en) 2008-09-10
US20100228544A1 (en) 2010-09-09
DE69840038D1 (de) 2008-10-30
EP1760694A3 (en) 2007-03-14
KR100651438B1 (ko) 2006-11-28
EP1734512B1 (en) 2015-09-09
EP1760695B1 (en) 2013-04-24
US7373295B2 (en) 2008-05-13
CN1632864A (zh) 2005-06-29
HK1099117A1 (en) 2007-08-03
EP1746582B1 (en) 2009-05-27
US8352253B2 (en) 2013-01-08
EP0967594B1 (en) 2006-12-13
DE69838305T2 (de) 2007-12-20
EP0967594A4 (en) 2002-08-21
EP1760695A3 (en) 2007-03-14
CA2684379C (en) 2014-01-07
US20040143432A1 (en) 2004-07-22
DE69840009D1 (de) 2008-10-23
EP0967594A1 (en) 1999-12-29
KR101029398B1 (ko) 2011-04-14
KR20080068942A (ko) 2008-07-24

Similar Documents

Publication Publication Date Title
WO1999021174A1 (en) Sound encoder and sound decoder
CN100367347C (zh) 话音信号编码器和话音信号解码器
KR100955126B1 (ko) 벡터 양자화 장치
CA2598870C (en) Multi-stage vector quantization apparatus and method for speech encoding

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98801556.0

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1998950336

Country of ref document: EP

Ref document number: 1019997005510

Country of ref document: KR

Ref document number: 09319933

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2275266

Country of ref document: CA

Ref document number: 2275266

Country of ref document: CA

Kind code of ref document: A

AK Designated states

Kind code of ref document: C1

Designated state(s): CA CN KR US

AL Designated countries for regional patents

Kind code of ref document: C1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WR Later publication of a revised version of an international search report
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998950336

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019997005510

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019997005510

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1998950336

Country of ref document: EP