WO2002043052A1 - Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound - Google Patents

Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound Download PDF

Info

Publication number
WO2002043052A1
WO2002043052A1 PCT/JP2001/010332 JP0110332W WO0243052A1 WO 2002043052 A1 WO2002043052 A1 WO 2002043052A1 JP 0110332 W JP0110332 W JP 0110332W WO 0243052 A1 WO0243052 A1 WO 0243052A1
Authority
WO
WIPO (PCT)
Prior art keywords
vector
codebook
code
vectors
codebooks
Prior art date
Application number
PCT/JP2001/010332
Other languages
English (en)
French (fr)
Inventor
Kazunori Mano
Yusuke Hiwasaki
Hiroyuki Ehara
Kazutoshi Yasunaga
Original Assignee
Nippon Telegraph And Telephone Corporation
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph And Telephone Corporation, Matsushita Electric Industrial Co., Ltd. filed Critical Nippon Telegraph And Telephone Corporation
Priority to AU2002224116A priority Critical patent/AU2002224116A1/en
Priority to CA002430111A priority patent/CA2430111C/en
Priority to DE60126149T priority patent/DE60126149T8/de
Priority to EP01997802A priority patent/EP1353323B1/en
Priority to KR1020037006956A priority patent/KR100566713B1/ko
Priority to US10/432,722 priority patent/US7065338B2/en
Publication of WO2002043052A1 publication Critical patent/WO2002043052A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • G10L2019/0005Multi-stage vector quantisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0007Codebook element generation

Definitions

  • the present invention relates to a method and apparatus for encoding and decoding a low bit rate audio signal in a mobile communication system, the Internet, etc., which encodes and transmits an audio signal such as a voice signal or a music signal, and an acoustic parameter applied to these.
  • the present invention relates to an encoding / decoding method and apparatus, and a program for executing these methods on a computer.
  • a speech coding apparatus uses a method using a model suitable for representing a speech signal so that a speech signal of high quality can be represented even at a low bit rate.
  • a CELP Code Excited Linear Prediction
  • MR Schroeder and BS Atal "Code-Excited Linear Prediction (CELP): High-quality Speech at Very Low Bit Rates", Proc. ICASSP-85, 25.1.1.1, 1, pp. 937-940, 1985 ".
  • the CELP-type speech coding method is based on a speech synthesis model corresponding to a human vocal utterance mechanism, and comprises a filter represented by linear prediction coefficients representing vocal tract characteristics and an excitation signal driving the filter, and a speech signal.
  • a speech signal is synthesized.
  • the digitized audio signal is divided at a certain fixed frame length (approximately 5 ms to 50 ms), and the audio signal is linearly predicted for each frame.
  • (Excitation signal) is encoded using an adaptive code vector consisting of known waveforms and a fixed code vector.
  • the adaptive code vector is stored in the adaptive codebook as a vector representing the excitation signal generated in the past, and is used to represent the periodic component of the audio signal.
  • the fixed code vector is stored as a vector having a predetermined number of waveforms prepared in advance in the fixed codebook, and non-periodic components that cannot be expressed by the adaptive codebook are stored. Used primarily for expression.
  • the vectors stored in the fixed codebook include vectors composed of random noise sequences and vectors represented by a combination of several pulses.
  • An algebraic fixed codebook is one of the typical fixed codebooks that expresses the fixed code vector by a combination of several pulses.
  • the specific contents of the algebraic fixed codebook are described in "ITU-T Recommendation G.729J".
  • speech linear prediction coefficients are converted into parameters such as partial autocorrelation (PARC0R) coefficients and line spectrum pairs (LSPs: also called line spectrum frequencies). After being further quantized and converted into a digital code, it is stored or transmitted. Details of these methods are described in, for example, "Digital Speech Processing” by Sadahiro Furui (Tokai University Press).
  • LSP parameter encoding method is as follows. A weighted vector obtained by multiplying the code vector output from the vector codebook in one or more past frames by a weighting factor selected from the weighting codebook, or this vector is used to calculate the entire audio signal in advance.
  • the quantization parameter of the current frame is expressed by a vector obtained by adding the average vector of the LSP parameters of the current frame.
  • the code vector to be output by the vector codebook and the weighting factor set to be output by the weighting factor codebook are selected so as to be sufficiently small. , And outputs them as code of LSP parameters.
  • weighted vector quantization This is generally referred to as weighted vector quantization, or moving average (MA: Moving Average) prediction vector quantization if the weighting factors are considered as prediction coefficients from the past.
  • MA Moving Average
  • the decoding side multiplies the code vector of the current frame and the past code vector by a weighting factor based on the received vector code and the weighting factor code, or obtains an average vector of the LSP parameters of the entire voice signal which is obtained in advance. Is output as the quantization vector of the current frame by the vector to which is added.
  • the vector codebook that outputs the code vector of each frame includes a basic one-stage vector quantizer, a divided vector quantizer that divides the dimensions of the vector, and a two-stage vector quantizer. Or a multi-stage vector quantizer with more or more stages, or a multi-stage split vector quantizer combining a multi-stage and split vector quantizer is possible.
  • the number of frames is large in the silence section and the stationary noise section, and the encoding and decoding processes have a multi-stage configuration. It was not possible to output vectors so that the correspondingly synthesized parameters did not necessarily change smoothly. This is because the vector codebook used for encoding is usually obtained by learning, but in this learning, a sufficient amount of silent sections or stationary noise sections is not included in the training speech. If the vector corresponding to the stationary noise section cannot always be sufficiently reflected and learned, or if the number of bits given to the quantizer is small, the quantization vector corresponding to the non-voice section will be sufficient. It was not possible to design a codebook that included it.
  • Such an LSP parameter encoder / decoder could not fully demonstrate the quantization performance of non-speech sections in encoding during actual communication, and could not prevent the quality of reproduced sound from deteriorating.
  • Such problems have arisen not only in the encoding of acoustic parameters equivalent to linear prediction coefficients representing the spectral envelope of a speech signal, but also in the case of similar encoding of a music signal.
  • An object of the present invention is to provide a method and an apparatus, and a program for implementing these methods on a computer. Disclosure of the invention
  • the present invention provides an audio parameter equivalent to a linear prediction coefficient representing a spectrum envelope of an audio signal, that is, encoding and decoding of parameters such as LSP parameters, parameters, and Percoll parameters (hereinafter simply referred to as audio parameters). , which corresponds to a silent section or a stationary noise section that cannot be obtained by codebook learning.
  • the main feature is that the vector is added to the codebook for the acoustic parameter vector code representing the flat spectrum envelope, and it can be selected.
  • a vector including a component of an acoustic parameter vector representing an almost flat spectrum envelope is obtained by calculation in advance, and stored as one vector of a vector codebook; and
  • the difference between the multi-stage vector quantization configuration and the divided vector quantization configuration is that the configuration is such that the code vector is output.
  • An acoustic parameter encoding method comprises:
  • the code vector of the vector codebook and the weight coefficient of the coefficient codebook are used. Determining the set, determining the index representing the set of the determined code vector and the weighting coefficient as the quantization code of the acoustic parameter, and outputting the determined code.
  • the vector codebook includes, as one of the stored code vectors, a vector including a component of the acoustic parameter vector representing the substantially flat spectrum envelope.
  • the acoustic parameter decoding method according to the present invention comprises:
  • the above-mentioned vector codebook includes, as one of the stored code vectors, a vector including a component of an acoustic parameter vector representing a substantially flat spectrum envelope.
  • An acoustic parameter encoding device includes:
  • Parameter calculating means for analyzing an input audio signal for each frame and calculating an audio parameter equivalent to a linear prediction coefficient representing a spectrum envelope characteristic of the audio signal
  • a vector codebook that stores a plurality of code vectors in correspondence with indices representing them
  • a coefficient codebook in which one or more sets of weighting factors are stored in correspondence with indexes representative of those sets,
  • each of the weight coefficients of the set selected from the coefficient codebook is used.
  • a distortion calculator for calculating a distortion of the quantized acoustic parameter with respect to the acoustic parameter calculated by the parameter calculating unit;
  • Codebook search control unit for outputting an index representing each of the set of weighting factors and weighting factors as a code for the acoustic parameter
  • the vector codebook is configured to include, as one code vector, a vector including a component of an acoustic parameter vector representing a substantially flat spectrum envelope.
  • the acoustic parameter decoding device comprises:
  • a vector codebook in which a plurality of code vectors of acoustic parameters equivalent to linear prediction coefficients representing a spectrum envelope characteristic of an audio signal are stored in correspondence with indexes representative of them,
  • a coefficient codebook in which one or more sets of weighting factors are stored in correspondence with their representative indexes
  • One code vector is output from the vector codebook according to the index represented by the code input for each frame, a set of weighting coefficients is output from the coefficient codebook, and the code vector output in the current frame is output. And a weight vector obtained by multiplying the code vector output in at least one frame of the closest past by the weight coefficient of the set output in the current frame and adding the weight vector.
  • Quantization parameter generation means for outputting a vector including the weighted vector component as a decoded quantized acoustic parameter of the current frame.
  • a vector containing the component of the acoustic parameter vector that represents an almost flat spectrum envelope is stored as one of the code vectors.
  • An audio signal encoding device for encoding an input audio signal includes:
  • An adaptive codebook holding an adaptive code vector representing a periodic component of the input audio signal; and- a fixed codebook storing a plurality of fixed vectors,
  • An excitation vector generated based on the adaptive code vector from the adaptive codebook and the fixed vector from the fixed codebook is input as an excitation signal
  • An adaptive code vector and a fixed vector to be selected from the fixed codebook and the adaptive codebook are determined so that distortion of the synthesized audio signal with respect to the input audio signal is reduced, and the determined adaptive code vector and fixed vector are determined.
  • An audio signal decoding apparatus for decoding an input code and outputting an audio signal uses the above-described audio parameter decoding method to generate an audio equivalent to a linear prediction coefficient representing a spectrum envelope characteristic from an input code. Means for decoding the parameters;
  • a fixed codebook storing a plurality of fixed vectors
  • the corresponding fixed vector is extracted from the fixed codebook, and the corresponding fixed vector is extracted from the adaptive codebook.
  • Filter means for setting a filter coefficient based on the acoustic parameter, and reproducing an acoustic signal by the excitation vector
  • An audio signal encoding method for encoding an input audio signal according to the present invention includes:
  • the adaptive code vector and the fixed vector selected from the fixed codebook and the adaptive codebook are determined so that the distortion of the synthesized audio signal with respect to the input audio signal is reduced, and the determined adaptive code vector is determined.
  • Corresponding to the vector and fixed vector respectively Outputting an adaptive code and a fixed code
  • An audio signal decoding method for decoding an input code and outputting an audio signal according to the present invention includes:
  • (B) A fixed codebook that extracts the adaptive code vector from the adaptive codebook that holds the adaptive code vector representing the periodic component of the input audio signal based on the input adaptive code and fixed code, and stores multiple fixed vectors. Extracting the corresponding fixed vector from, and combining the adaptive code vector and the fixed vector in a vector to generate an excitation vector;
  • the present invention described above can be provided in the form of a computer-executable program.
  • the code vector of the vector codebook includes a component of an acoustic parameter vector representing a substantially flat spectrum envelope. Since the vectors are obtained and stored in advance, it is possible to output the quantization vectors corresponding to the acoustic parameters corresponding to the corresponding silent sections or stationary noise sections.
  • the codebook of one stage is used.
  • the vector containing the component of the acoustic parameter vector that represents a substantially flat spectrum envelope is stored in the codebook, and the zero-vector is stored in the codebook of the other stages, so that the corresponding silence is stored. It can output a quantization vector corresponding to an acoustic parameter corresponding to a section or a stationary noise section.
  • Zero vectors need not always be stored.
  • the vector including the component of the acoustic parameter vector representing the substantially flat spectrum envelope is selected from the codebook of one stage, the substantially flat spectrum is obtained.
  • a vector including a component of the acoustic parameter vector representing the audio envelope may be output as a code vector candidate of the current frame.
  • the vector codebook is composed of divided vector codebooks
  • a plurality of divided vectors obtained by dividing the dimensions of the vector including the components of the acoustic parameter vector representing a substantially flat spectrum envelope are used.
  • each divided vector is selected in the search of each divided vector codebook, and a vector obtained by integrating the divided vectors is selected. It can be output as a quantized vector corresponding to an acoustic parameter corresponding to a silent section or a stationary noise section.
  • the vector quantizer is configured as a multi-stage divided vector quantization configuration, and by combining the above-described multi-stage vector quantization configuration and the divided vector quantization configuration technology, the corresponding silence section or stationary noise section can be obtained. It can be output as a quantization vector corresponding to the corresponding acoustic parameters.
  • the scaling coefficient for each of the codebooks in the second and subsequent stages is provided as a scaling coefficient codebook corresponding to each code vector in the first-stage codebook.
  • the scaling coefficients corresponding to the code vectors selected in the second codebook are read out from the respective scaling coefficient codebooks and multiplied by the code vectors respectively selected from the second codebook, thereby reducing the quantization distortion. Small encoding can be realized.
  • any one of the parameter encoding devices is used in an acoustic parameter region equivalent to the linear prediction coefficient. According to this configuration, the same operation and effect as any of the above can be obtained.
  • any one of the parameter decoding devices is used in an acoustic parameter region equivalent to the linear prediction coefficient. According to this configuration, it is possible to obtain the same operation and effect as any of the above. it can.
  • FIG. 1 is a block diagram showing a functional configuration of an acoustic parameter encoding device to which a codebook according to the present invention is applied.
  • FIG. 2 is a block diagram showing a functional configuration of an acoustic parameter decoding device to which the codebook according to the present invention is applied.
  • FIG. 3 is a diagram showing a configuration example of a vector codebook according to the present invention for LSP parameter encoding and decoding.
  • Figure 4 is illustrating a configuration example of a base vector codebook according to the invention when constituted in FIGS c Figure 5 is divided base vector codebooks showing a configuration example of a base vector codebook according to the invention in the case of a multi-stage configuration.
  • FIG. 6 is a diagram showing a configuration example of a vector codebook according to the present invention when a scaling coefficient is applied to a multistage vector codebook.
  • FIG. 7 is a diagram showing a configuration example of a vector codebook according to the present invention when the second-stage codebook is configured by a divided vector codebook.
  • FIG. 8 is a diagram showing a configuration example of a vector codebook when scaling coefficients are applied to two divided vector codebooks in the codebook of FIG.
  • FIG. 9 is a diagram showing a configuration example of a vector codebook in a case where each stage of the multi-stage vector codebook in FIG. 4 is a divided vector codebook.
  • FIG. 1OA is a block diagram showing a configuration example of an audio signal transmission device to which the encoding method according to the present invention is applied.
  • FIG. 10B is a block diagram showing a configuration example of an audio signal receiving apparatus to which the decoding method according to the present invention is applied.
  • FIG. 11 is a diagram showing a functional configuration of a speech signal encoding device to which the encoding method according to the present invention is applied.
  • FIG. 12 is a diagram showing a functional configuration of an audio signal decoding device to which the decoding method according to the present invention is applied.
  • FIG. 13 is a diagram showing a configuration example when the encoding device and the decoding device according to the present invention are implemented by a computer.
  • FIG. 14 is a graph for explaining the effect of the present invention. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 1 is a block diagram showing a configuration example of an acoustic parameter encoding apparatus according to an embodiment to which a linear prediction parameter encoding method according to the present invention is applied.
  • This encoding device includes a linear prediction analysis unit 12, an LSP parameter calculation unit 13, and a codebook 14 constituting a parameter encoding unit 10, a quantization parameter generation unit 15, a distortion calculation unit 16, And a codebook search control unit 17.
  • a series of digitized audio signal samples is input from an input terminal T1.
  • the linear prediction analysis unit 12 performs linear prediction analysis on the audio signal samples for each frame stored in the internal buffer, and calculates a set of linear prediction coefficients.
  • the LSP parameter calculation unit 13 calculates an equivalent P order LSP (line spectrum pair) parameter from the p order linear prediction coefficient. Details of these processing methods are described in the aforementioned book by Furui. These p LSP parameters are
  • the integer n indicates the number n of a certain frame, and the frame at that time is called a frame n.
  • the codebook 14 contains a vector codebook 14 A that stores N code vectors representing the LSP parameter vectors obtained by learning, and a coefficient codebook that stores K weighting coefficient sets. 14B, and an index .Ix (n) for designating a code vector and an index Iw (n) for designating a weight coefficient code, respectively, correspond to a code vector ⁇ ( ⁇ ),
  • 15B m and m + 1 multipliers 15A connected in series are m buffer units ⁇ ⁇ !,..., 15B m . , 15A, 15A m, register 1 5 C, consisting of the vector adder 1 5 D.
  • the code vector x (n) selected from the vector codebook 14 A for the current frame n is
  • the determined code vector one frame before is x (nl)
  • the determined code vector two frames before is x (n-2)
  • the determined code vector m frames ago is x (n-m)
  • m is appropriately selected as needed.
  • the value of m is sufficient to be 6 or less, and a value of 1 to 3 may be used. This m is also called the moving average prediction order.
  • the quantization vector candidate y (n) thus obtained is sent to the distortion calculation unit 16 and calculates the quantization distortion for the LSP parameter f (n) calculated by the LPS parameter calculation unit 13.
  • the distortion d is defined by the following weighted Euclidean distance, for example.
  • i l,-, and p are weighting factors obtained from the LSP parameter f (n), and the performance is good when weighting is applied to the vicinity of the formant frequency of the spectrum.
  • the codebook search unit 17 sequentially changes the pair of indices Ix (n) and Iw (n) given to the codebook 14, and calculates the distortion d of equation (5) as described above for each index of the pair.
  • the distortion d which is the output of the distortion calculator 16 from the code vector of the codebook 14A in the codebook 14 and the weight coefficient set of the coefficient codebook 14B, is obtained.
  • Is searched for the one that minimizes or is sufficiently small, and the indexes Ix (n) and Iw (n) are sent out from the terminal T2 as the sign of the input LSP parameter.
  • the codes Ix (n) and Iw (n) sent from the terminal T2 are sent to a decoder via a transmission line or stored in a storage device.
  • a feature of the present invention is that one code stored in a vector codebook 14 A used in the above-described weighted vector quantization of LSP parameters or in encoding by moving average vector quantization. If the above average vector y ave is zero, the LSP parameter vector F corresponding to a silent section or a stationary noise section, or if y ave is not zero, the LSP parameter vector Vector C obtained by subtracting y ave from F. Is stored. That is, if y ave is not zero, the LSP parameter vector corresponding to a silent section or a stationary noise section is
  • y (n) is C. + y ave , that is, F obtained from the LSP parameter in the silent section or a vector close to it can be output as a quantization vector.
  • the coding performance in the silent section or the stationary noise section can be improved.
  • the quantization parameter generation unit 15 When the quantization parameter generation unit 15 generates a quantization vector y (n) including the component of the average vector y ave , the code vector including the component of the vector F base used minus the vector y ave, when generating a quantized base vector y (n) that does not contain the component of the average base vector y ave is used base vector F itself.
  • FIG. 2 is a configuration example of a decoding device to which the embodiment of the present invention is applied, and is configured by a codebook 24 and a quantization parameter generation unit 25.
  • the codebook 24 and the quantization parameter generation unit 25 are configured similarly to the codebook 14 and the quantization parameter generation unit 15 in the encoding device of FIG.
  • Indexes Ix (n) and Iw (n) as parameter codes sent from the encoding apparatus of FIG. 1 are input, and a code vector x (n) corresponding to the index Ix (n) is a vector codebook 2 4 A and a weighting coefficient set Wn. WL..., ⁇ Corresponding to the index Iw (n) are output from the coefficient codebook 24 B.
  • Vector codebook 2 4 A output for each frame from the code base-vector x (n) is sequentially inputted to the buffer section 25B! 25 ⁇ ⁇ connected in series. Current frame
  • this decoding device as in the encoding device shown in FIG. Vector C.
  • this in the vector codebook 24 A as one code vector, it is possible to output the LSP parameter vector F obtained in the silent section or the stationary noise section of the acoustic signal.
  • the vector C is the LSP parameter vector F corresponding to the silent section or the stationary noise section. Is stored as a single sign vector instead of.
  • the LSP parameter vector F or vector C stored in each vector codebook 14A, 24A.
  • FIG. 3 shows a configuration example of the vector codebook 14 A in FIG. 1 or the vector codebook 24 A in FIG. 2.
  • a one-stage vector codebook 4 1 is used, and the vector codebook 4 1 has N code vectors.
  • One of the N code vectors is selected and output.
  • the code vector C Q is used as one of the code vectors X.
  • the N code vectors of the vector codebook 4 1 are created by learning, for example, as in the past, but in the present invention, one vector (smallest distortion) most similar to the vector CQ is C . , Or simply added.
  • Vector C There are several ways to ask.
  • the ⁇ -order LSP parameter vector F 0 to vit are divided into p + 1 equal parts. ⁇ values with almost equal intervals such as ⁇ / (1 + ⁇ ) and 2 ⁇ / (1 + ⁇ ) ⁇ / (1 + ⁇ ) may be used as the LSP parameter vector.
  • the actual LSP parameter vectors F to C in the silence section and stationary noise section. Calculate by Fy ave .
  • the average vector y ave of the LSP parameters of the entire audio signal is generally obtained as the average vector of all the learning vectors when learning the code vector X of the vector codebook 41.
  • Use the p 10th order LSP parameter as the acoustic parameter, and set the LSP parameter in the silent section or the stationary noise section from 0 to?
  • Table 1 below shows examples of the 10-dimensional betatles y ave and ⁇ normalized to values between r.
  • a vector 11 is an example of a code vector of an LSP parameter representing a silent section and a stationary noise section written in a codebook according to the present invention.
  • the value of this vector element increases at almost constant intervals, which means that the frequency spectrum is almost flat.
  • FIG. 4 shows another example of the configuration of the vector codebook 14 ⁇ of the LSP parameter encoder of FIG. 1 or the vector codebook 24 4 of the LSP parameter decoding device of FIG. 2 as a codebook 4A.
  • the first-stage codebook 4 1 stores N P-dimensional code vectors x réelle,..., X 1N
  • the second-stage codebook 4 2 stores N ′ p-dimensional codes.
  • Vector 21 3 ⁇ 4. Is stored.
  • the code analysis unit 43 analyzes the index Ix (n), and an index Ix di that specifies a first-stage code vector. )! And the index Ix (n) 2 specifying the second-stage code vector. Then, the ith index corresponding to the index IXG L Ix (n) 2 of each stage And the ⁇ th code vector x H , 3 ⁇ 4. Are read from the first-stage codebook 41 and the second-stage codebook 42, and the adder 44 adds both codevectors and signs the addition result. Output as vector x (n).
  • the code vector search is performed by using only the first-stage codebook 41 up to a predetermined number of candidate code vectors in ascending order of quantization distortion. This search is performed in combination with the weighting coefficient set of the coefficient codebook 14 B shown in FIG. Next, for each combination of the first-stage code vector of each candidate and the code vector of the second-stage codebook, a search is made for a combination of code vectors that minimizes quantization distortion.
  • the code vector search is performed with priority given to the first-stage codebook 41
  • the code vector is searched for as one code vector in the first-stage codebook 41 of the multi-stage vector codebook 4A.
  • the vector C fl (or F) is stored in advance, and the zero vector z is stored in advance as one code vector in the second-stage codebook 42.
  • the code vector C from the code book 41 is obtained. Is selected, the zero vector z is selected from the codebook 42, and as a result, the code in the case where the output of the codebook 4A from the adder 44 corresponds to a silent section or a stationary noise section.
  • Vector C A configuration that can output the data is realized. Side dishes and stores the zero vector z, when codebook 4 1 from the code vector C e is selected, it may be configured not to perform the selection ⁇ addition from the codebook 4 2.
  • the code vector C fl and the zero vector z are different from each other. If it is a codebook, it may be stored in either codebook. Sign vector C. And zero vector z are likely to be selected at the same time in a silent section or a stationary noise section, but they may not always be selected at the same time due to calculation errors and other factors. Code vector C in the codebook at each stage. And zero vector z are selected as one code vector as in other code vectors.
  • the zero vector may not be stored in the second codebook 42.
  • the vector C from the first stage codebook 4 1. Is selected, the code vector is not selected from the second-stage codebook 4 2 and the code of the codebook 4 1 can be output as it is from the adder 44 c
  • the codebook 4A By configuring the codebook 4A with a multi-stage codebook as shown in Fig. 4, it is effectively the same as providing code vectors as many as the number of selectable code vector combinations. There is an advantage that the size of the codebook (here, the total number of code vectors) can be reduced compared to the case of only one stage codebook. Fig.
  • Example 3 shows the case of two-stage vector codebooks 4 1 and 4 2.However, when the number of stages is 3 or more, codebooks are simply added by the number of additional stages, and each codebook is indexed by its index. Since it is only necessary to select the code vectors from the codebook at the first stage and to combine them by vector, it is easy to expand.
  • Example 3 shows the case of two-stage vector codebooks 4 1 and 4 2.However, when the number of stages is 3 or more, codebooks are simply added by the number of additional stages, and each codebook is indexed by its index. Since it is only necessary to select the code vectors from the codebook at the first stage and to combine them by vector, it is easy to expand.
  • Example 3 shows the case of two-stage vector codebooks 4 1 and 4 2.However, when the number of stages is 3 or more, codebooks are simply added by the number of additional stages, and each codebook is indexed by its index. Since it is only necessary to select the code vectors from the codebook at the first stage and to combine them by vector, it
  • FIG. 5 shows a code selected from the second-stage codebook 4 2 with a predetermined scaling factor for each code vector of the first-stage codebook 4 1 in the vector codebook 4 A of the embodiment of FIG. This is a case where the vector is multiplied, added to the code vector from the first-stage codebook 41, and output.
  • Scaling factor codebook 4 5 are provided, the first stage sign-Book 4 1 of each code base vector x "C 0 x 1N in correspondingly the example from 0.5 to 2 about scale one ring determined by learning in advance
  • the coefficient s N is stored, and the same index as the first-stage codebook 4 1 Accessed by
  • the code analyzer 43 analyzes the index Ix (n), and an index Ixdi that specifies the first-stage code vector. ), And an index specifying the code vector in the second row
  • Ix (n) 2 is obtained.
  • the code vector x u corresponding to the index Ixd ⁇ is read from the first-stage codebook 41.
  • the scaling coefficient Si corresponding to the index Ixdi)! Is read from the scaling coefficient codebook 45.
  • the code vector x 2i Corresponding to the index Ix (n) 2 is read from the second-stage codebook 4 2, and the scaling coefficient Si is multiplied by the multiplier 46 to the code from the second-stage codebook 42. Multiply the vector x 2i .
  • the vector obtained by the multiplication and the code vector from the first-stage codebook 41 are added by the adder 44, and the addition result is output as a code vector x (n) from the codebook 4A.
  • the search for the code vector is performed by first searching for a predetermined number of candidate code vectors in order from the one with the smallest quantization distortion using only the first-stage codebook 4 1.
  • a set that minimizes the quantization distortion is searched.
  • the vector Co is stored in advance as one code vector in the first stage codebook 4 1
  • the second stage codebook 4 A is stored.
  • the zero vector z is stored in advance as one code vector of 2.
  • the search is performed for all combinations between the code vectors of the two codebooks 41 and 42, the code vector C.
  • the zero vector z may be stored in either of them if they are stored in separate codebooks. Alternatively, the zero vector z does not have to be stored as in the above-described embodiment. In that case, the code vector C. When is selected, selection and addition from codebook 42 is not performed.
  • a code vector corresponding to a silent section or a stationary noise section can be output.
  • the code vector Co and the zero vector z are likely to be selected at the same time during a silent period or a stationary noise period. However, they may not always be selected at the same time due to calculation errors and other factors.
  • the code vector Co and the zero vector z are selected as one code vector, as in the other code vectors.
  • Fig. 6 shows a configuration in which the vector codebook 14A of the parameter encoding device in Fig. 1 or the vector codebook 24A of the parameter decoding device in Fig. 2 is configured as a divided vector codebook 4A.
  • the case where the invention is applied is shown.
  • Fig. 6 is composed of a two-part vector codebook, it can be similarly extended when the number of divisions is three or more. Therefore, the implementation in the case of two divisions is described here.
  • a low-order vector codebook 4 storing N low-order code vectors ⁇ ⁇ .,., ⁇ ⁇ and N ′ high-order code vectors ⁇ ⁇ ,. Higher order vector storing., 3 ⁇ 4.
  • the low-order and high-order vector codebooks 44 1 H have low-order up to l-k-th and high-order up to k + l-p-th of Constructs a codebook consisting of vectors of each dimension. That is, the i-th vector of the low-order vector codebook 41 L is
  • the ⁇ th vector of the higher-order vector codebook 41 H is
  • Input index Ix (n) in the analysis portion 43 Ix (n) L and Ix (n) H To a separatory vignetting, from each codebook 41 L, 41 H in response to these IxCii and Ix (n) H,
  • the lower-order and higher-order division vectors x u , x Hi . Are selected, and the integration unit 47 integrates these division vectors x Li . X Hi .
  • the base-vector C One vector of codebook 41 L of low-order base vector
  • the lower-order vector C flI ⁇ is stored, and the higher-order vector C fl of the vector C fl is stored as one vector of the code book 41 H of the higher-order vector.
  • FIG. 7 shows still another example of the configuration of the vector codebook 14A of the acoustic parameter encoding device of FIG. 1 or the vector codebook 24A of the acoustic parameter decoding device of FIG. This is the case where it is configured as a multi-stage divided vector codebook.
  • the codebook 4A is a codebook 4A of FIG. 4 in which the second-stage codebook 42 is configured by a two-divided vector codebook similar to FIG.
  • the first-stage codebook 4 1 stores N code vectors Xu,..., X 1N
  • the second-stage low-order codebook 4 2 ⁇ contains N ′ divided vectors x 2U x 2U ( . is stored, and N "divided vectors 3 ⁇ 4 tine x 2HN .. are stored in the second-stage higher-order codebook 4 2 H.
  • the input index Ix (n) is Index that specifies the first-stage code vector in the code analysis unit 43
  • the index Ix (n) 2 that specifies the second-stage code vector.
  • the i-th code vector ⁇ ⁇ corresponding to the first-stage index Ixdi is read from the first-stage codebook 4 1.
  • the second-stage index ⁇ ( ⁇ ) 2 is obtained by the analysis unit 4 3 2 using Ix (n ) is parsed into 2L and ⁇ ( ⁇ ) 2 ⁇ , these Ix (n) 2L, Ix ( n) and more second-stage low-order split base vector codebooks 4 2H, 2-stage high-order split base vector codebooks 4 Select the i'th and ⁇ th divided vectors 2i. And x2Hi .. of each of the 2 Hs , and these selected divided vectors are integrated by the integration unit 47, and the second stage A code vector x 2i . Is generated In an adder 44, the first-stage code vector ⁇ ⁇ and the second-stage integrated vector x 2i are added, and a code vector x (n) is obtained. Is output.
  • the vector C is used as one code vector of the first-stage codebook 41, as in the embodiments of FIGS.
  • the second-stage split vector codebook 4 2, the lower-order split vector codebook 4 2, the higher-order split vector codebook 4 2 H dividing zero storing vector z have z H.
  • the number of codebook stages may be three or more.
  • the divided vector codebook may be used for any stage, and the number of divided vector codebooks per stage is not limited to two. The number of stages to be divided may be one or more.
  • the vector C is used. And split zero vectors z have z H may be stored in the code book of different stages throat together. Alternatively, similarly to the second and third embodiments, the divided zero vector need not be stored. Otherwise, when the vector C fl is selected, selection from the codebook 4 2 or 4 2 H 'Addition is not performed.
  • the lower-order scaling coefficient codebook 4 5 ⁇ and the higher-order scaling coefficient codebook 4 5 H each have N values of about 0, for example. Store about 5 to 2 coefficients.
  • the input index Ix (n) is analyzed by the analysis unit 43 i at an index Ix n) specifying the first-stage code vector and an index Ix (n) 2 specifying the second-stage code vector. And is parsed. First, a code vector x u corresponding to the index Ixd i is obtained from the first-stage codebook 41. Also, the index And a low-order scaling coefficient codebook 4 5 ⁇ and higher scaling factor codebook 4 5 H, each low-order scaling factors s u and higher scaling factor s Hi are read in response to.
  • index Ix (n) 2 is a analyzer 4 3 2, is analyzed in the index Ix (n) 2L and Ix (n) 2H, they, by Ix (n) 2L and Ix (n) 2H 2 Select the respective divided vectors x 2Li ., Of the lower-order divided vector codebook 4 2 L and the higher-order divided vector 4 2 H of the second stage. A vector obtained by multiplying the selected divided vectors by low-order and high-order scaling coefficients s Hi in multipliers 46 or 46 H is integrated by an integration unit 47, and the second stage code is obtained. The vector x 2iT . Is generated.
  • the adder 4 4 adds the first-stage code vector x u and the second-stage integrated vector ⁇ 2 .., and outputs the addition result as a code vector x (n).
  • the vector C is used as one code vector in the first-stage codebook 4 1.
  • Stores, and the second-stage split base vector codebooks lower order split base vector codebooks 4 2 I as higher division base vector sign-Book 4 split vector split zero vectors z have z H and stores, respectively. By doing so, a configuration is realized in which the code vector in the case of a silent section or a stationary noise section is output.
  • the number of codebook stages may be three or more. In that case, the second stage The following two or more stages may each be configured with a divided vector codebook. In any case, the number of divided vector codebooks per stage is not limited. Example 7
  • FIG. 9 shows still another configuration example of the vector codebook 4A of the acoustic parameter encoding device of FIG. 1 or the vector codebook 24A of the acoustic parameter decoding device of FIG.
  • the first-stage codebook 41 in this embodiment is also configured by the same division vector codebook as the embodiment in FIG.
  • the first-stage low-order codebook 4 1 stores N low-order division vectors x lu x
  • the first-stage high-order codebook 4 1 H has N ′ high-order divisions.
  • H stores N ′ ′′ high-order divided vectors x 2H1 x 2HN .
  • the input index Ix (n) is converted by the code analyzer 43 into an index Ixdi)! That designates the first-stage vector and an index Ix (n) 2 that designates the second-stage vector. Is parsed.
  • First stage index The vectors corresponding to the first-stage low-order split vector codebook 4 1 and the first-stage high-order split vector codebook 4 1H are the i-th and ⁇ -th split vectors x lu , x 1HI. select, generate these integrated unit 4 7 1 base integration of the first stage integrated vector x Hi..
  • the second-stage index Ix (n) 2 is the same as the first-stage index for the second-stage low-order split vector codebook 4 2 L and the second-stage high-order split vector codebook 4 2 H , respectively. i "th and
  • the low-order vector C 0 As one code vector of the low-order vector codebook 4 of the first stage, the low-order vector C 0 The division vector is stored, and the higher-order division vector C M of the vector C 0 is stored as one division vector of the codebook 4 1 H of the first-order higher-order vector, And the second-stage divided vector codebook 4 2 low-order divided vector codebook 4 2 2nd stage As vector mentioned one each of the high-order split base vector codebooks 4 2 H, divided zero base vector ZL, stores z H.
  • This configuration realizes a configuration that can output a code vector in the case of a silent section or a stationary noise section. Also in this case, the number of stages is not limited to two, and the number of divided vector codebooks per stage is not limited to two.
  • FIG. 10 is a block diagram showing a configuration of an audio signal transmitting apparatus and a receiving apparatus to which the present invention is applied.
  • the audio signal 101 is converted into an electric signal by the input device 102 and output to the A / D converter 103.
  • the A / D converter 103 converts the (analog) signal output from the input device 102 into a digital signal, and outputs the digital signal to the speech encoder 104.
  • the audio encoding device 104 encodes the digital audio signal output from the A / D conversion device 103 by using an audio encoding method described later, and outputs encoded information to the RF modulation device 105.
  • the RF modulator 105 converts the speech coded information output from the speech coder 104 into a signal to be transmitted on a propagation medium such as a radio wave and outputs the signal to the transmission antenna 106.
  • the transmission antenna 106 transmits the output signal output from the RF modulator 105 as a radio wave (RF signal) 107.
  • RF signal radio wave
  • the transmitted radio wave (RF signal) 108 is received by the receiving antenna 109 and output to the RF demodulator 110.
  • the radio wave (RF signal) 108 in the figure is the radio wave (RF signal) 107 viewed from the receiving side, and is exactly the same as the radio wave (RF signal) 107 unless there is signal attenuation or superposition of noise in the propagation path. It will be.
  • RF demodulation device 110 demodulates audio encoded information from the RF signal output from reception antenna 109 and outputs the demodulated information to audio decoding device 111.
  • the audio decoding device 111 decodes an audio signal from the audio coding information output from the RF demodulation device 110 using an audio decoding method described later, and outputs the audio signal to the D / A conversion device 112.
  • the D / A converter 112 converts the digital audio signal output from the audio decoder 111 into an analog electrical signal and outputs it to the output device 113.
  • the output device 113 converts the electrical signal into air vibration.
  • the sound signal 114 is output so as to be audible to human ears.
  • a base station device and a mobile terminal device in a mobile communication system can be configured.
  • the speech signal transmitting apparatus has the features of the speech encoding apparatus 104.
  • FIG. 11 is a block diagram showing the configuration of the speech encoding device 104.
  • the input audio signal is a signal output from the A / D converter 103 in FIG. 10 and is input to the preprocessing unit 200.
  • the pre-processing unit 200 performs high-pass filter processing to remove the DC component, performs waveform shaping processing and pre-enhance processing to improve the performance of the subsequent encoding processing, and adds the processed signal X in to the LPC analysis unit 201 and the addition.
  • LPC analysis section 201 performs linear prediction analysis on X in, and outputs an analysis result (linear prediction coefficient) to LPC quantization section 202.
  • LPC quantizing section 202 includes LSP parameter calculating section 13, parameter encoding section 10, decoding section 18, and parameter conversion section 19.
  • the parameter encoding unit 10 has the same configuration as the parameter encoding unit 10 in FIG. 1 to which the vector codebook of the present invention according to any of the embodiments in FIGS.
  • decoding section 18 has the same configuration as the decoding apparatus in FIG. 2 to which any of the codebooks in FIGS.
  • the linear prediction coefficient (LPC) output from the LPC analysis unit 201 is converted into an LSP parameter in the LSP parameter calculation unit 13, and the obtained LSP parameter is described in the parameter encoding unit 10 with reference to FIG. Is encoded as follows.
  • the codes I (n) and Iw (n) obtained by encoding that is, the code L representing the quantized LPC, are output to the multiplexing unit 2 13 and the codes Ix (n) and Iw (n ) Are decoded by the decoding unit 18 to obtain quantized LSP parameters, which are again converted to LPC parameters by the parameter conversion unit 19, and the obtained quantized LPC parameters are sent to the synthesis filter 203.
  • the synthesis filter 203 uses the quantized LPC as a filter coefficient, synthesizes an acoustic signal by filter processing with the driving sound source signal output from the adder 210, and outputs the synthesized signal to the adder 204.
  • the adder 204 calculates an error signal £ between the Xin and the synthesized signal, and outputs the error signal £ to the auditory weighting unit 211.
  • the auditory weighting unit 211 performs auditory weighting on the error signal ⁇ output from the adder 204, and The distortion of the combined signal is calculated and output to the parameter determination unit 212.
  • the parameter determining unit 212 generates a signal to be generated from the adaptive codebook 205, the fixed codebook 207, and the quantization gain generating unit 206 so that the coding distortion output from the auditory weighting unit 211 is minimized. To determine. It should be noted that not only the coding distortion output from the auditory weighting unit 211 but also the signal to be generated from the above three means by using another coding distortion minimizing method using the Xin together. By determining, the coding performance can be further improved.
  • the adaptive codebook 205 buffers the excitation signal of the immediately preceding frame n-1 output by the adder 210 in the past when the distortion is minimized, and is output from the parameter determination unit 212.
  • the sound source vector is cut out from the position specified by the adaptive vector code A, and is repeatedly connected until it becomes one frame length to generate an adaptive vector including a desired periodic component.
  • the fixed codebook 207 a plurality of fixed vectors of one frame length are stored corresponding to the fixed vector codes, and the shape specified by the fixed vector code F output from the parameter The resulting fixed vector is output to multiplier 209.
  • Quantization gain generating section 206 the quantized adaptive base vector gain g A and quantized fixed base vector gain g F for adaptive base vector and a fixed base vector that thus identified the gain code G outputted from the parameter determining unit 212 And applied to multipliers 208 and 209, respectively.
  • Multiplier 208 multiplies the quantized adaptive vector gain g A output from quantization gain generating section 206 by the adaptive vector output from adaptive codebook 205, and outputs the result to adder 210.
  • Multiplier 209 multiplies the fixed vector output from fixed vector codebook 207 by the quantized fixed vector gain g F output from quantization gain generating section 206, and outputs the result to adder 210.
  • Adder 210 performs vector addition on the adaptive vector after the gain multiplication and the fixed vector, and outputs the result to synthesis filter 203 and adaptive codebook 205.
  • the multiplexing unit 213 converts the code L representing the quantized LPC from the LPC quantization unit 202, the adaptive vector code A representing the adaptive vector and the fixed vector code representing the fixed vector from the parameter determination unit 212. F and a gain code G representing the quantization gain are input, and these codes are multiplexed and output to the transmission line as coded information.
  • FIG. 12 is a block diagram showing a configuration of speech decoding apparatus 111 in FIG.
  • the coded information output from the RF demodulation unit 110 separates the coded information multiplexed by the demultiplexing unit 1301 into individual codes L.A, F, and G ( separated LPC Code L is given to LPC decoding section 1302, separated adaptive vector code A is given to adaptive codebook 1305, separated gain code G is given to quantization gain generating section 1306, and separated fixed code
  • the vector code F is provided to the fixed codebook 1307.
  • the LPC decoding section 1302 includes a decoding section 1302A configured in the same manner as in Fig. 2 and a parameter conversion section 1302B.
  • Adaptive codebook 1305 extracts an adaptive vector from the position specified by adaptive vector code A output from demultiplexing section 1301, and outputs the extracted adaptive vector to multiplier 1308.
  • Fixed code book 1307 generates a fixed vector specified by fixed vector code F output from demultiplexing section 1301, and outputs the generated fixed vector to multiplier 1309.
  • Quantization gain generating unit 1306 outputs respectively from the multi-duplex separation unit 1301 to the decoded multiplier 1308 and 1309 and an adaptive base vector gain g A that is specified fixed base vector gain g F in output gain code G .
  • Multiplier 1309 the multiplies fixed code vector gain g F in the fixed code vector is output to the adder 1310.
  • Adder 1310 adds the adaptive vector after the gain multiplication output from adders 1308 and 1309 and the fixed vector, and outputs the result to synthesis filter 1303.
  • the synthesis filter 1303 performs filter synthesis using the vector output from the adder 1310 as a driving sound source signal and the filter coefficients decoded by the LPC decoding unit 1302, and outputs the synthesized signal to the post-processing unit 1304. .
  • the post-processing unit 1304 performs processing to improve the subjective quality of speech, such as formant emphasis and pitch emphasis, and processing to improve the subjective quality of stationary noise. Output.
  • the LSP parameter is used as a parameter equivalent to the linear prediction coefficient representing the spectral envelope of the audio signal.
  • other parameters for example, a parameter, a Percall coefficient, or the like may be used. Even when these are used, silence sections or stationary noise sections Since the spectrum envelope becomes flat in the interval, it is easy to calculate the parameters in this section.
  • the p-order ⁇ parameter the 0th order is 1.0, and the 1st to Pth order is It should be 0.0. Even if other acoustic parameters are used, any other acoustic parameter vector determined to represent a substantially flat spectrum envelope may be used.
  • the LSP parameter is practical because of its good quantization efficiency.
  • vector C in the case of a multistage configuration as a vector codebook, vector C.
  • the present invention can be applied not only to encoding and decoding of audio signals but also to encoding and decoding of general acoustic signals such as music signals.
  • the apparatus of the present invention can execute encoding and decoding of an audio signal by causing a computer to execute a program.
  • Fig. 13 uses the codebook according to one of the inventions in Figs. 3 to 9 and applies the audio parameter encoding device and decoding device in Figs. 1 and 2 and the encoding method and decoding method.
  • FIG. 11 shows an embodiment in which a computer executes the encoded audio signal encoding device and decoding device of FIGS. 11 and 12.
  • a computer embodying the present invention includes a modem 410 connected to a communication network, an input / output interface 420 for inputting / outputting an audio signal, a buffer memory 430 for temporarily storing a digital audio signal or an audio signal code, encoding and A random access memory (RAM) 440 that executes the decoding process there, a central processing unit (CPU) 450 that controls data input / output and program execution, a hard disk 460 that stores an encoding and decoding program, It comprises a driving device 470 for driving a recording medium 470M, which are connected to each other by a common bus 480.
  • a driving device 470 for driving a recording medium 470M, which are connected to each other by a common bus 480.
  • the recording medium 470M a compact disk CD, a digital video disk DVD, a magneto-optical disk MO, a memory card, or any other type of recording medium may be used.
  • the heart disk 460 stores a program representing the encoding method and the decoding method implemented in the audio signal encoding device and the decoding device shown in FIGS. 11 and 12 in a processing procedure by a computer.
  • the program includes, as a subroutine, a program that executes the acoustic parameter encoding and decoding shown in FIGS.
  • the CPU 450 When encoding an input audio signal, the CPU 450 reads the audio signal encoding program from the hard disk 460 into the RAM 440, and converts the audio signal fetched into the buffer memory 430 via the input / output interface 420 into a frame-by-frame R signal.
  • the encoding is performed by performing processing according to the encoding program in the AM 440, and the obtained code is transmitted to the communication network via the modem 410, for example, as encoded audio signal data. Alternatively, it is temporarily stored in the hard disk 460. Alternatively, the data is written to the recording medium 470M by the recording medium driving device 470.
  • the CPU 450 When decoding the input encoded audio signal data, the CPU 450 reads the decoding program from the hard disk 460 into the RAM 440.
  • the acoustic code data is downloaded from the communication network to the buffer memory 430 via the modem 410, or is read from the recording medium 470M into the buffer memory 430 by the driving device 470.
  • the obtained audio signal data is output from the input / output interface 420.
  • Table 1 of FIG. 1 as an example representative of the effect, and if the embedded vector C 0 and the zero base vector z silence section codebook by the present invention, base codebook as in the conventional Kutonore C.
  • the quantization performance of the acoustic parameter coding apparatus when no is embedded is shown.
  • the vertical axis represents cepstrum distortion, which corresponds to logarithmic spectrum distortion, and is expressed in decibels (dB). The smaller the cepstrum distortion, the better the quantization performance.
  • the average distortion is calculated for the speech section for calculating the distortion in the average (Total) of all sections, in sections other than the silent section and the steady section of the speech (Mode 0), and in the steady section of the speech (Mode 1).
  • the weighted sum of the code vector of the current frame and the code vector output in the past, or the average vector obtained in advance is a parameter vector corresponding to a silent section or a stationary noise section, or its parameter. Since the vector obtained by subtracting the average vector from the vector is selected as a code vector and its code can be output, an encoding / decoding method and a device thereof with less quality deterioration in these sections are provided. Can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

音響パラメータ符号化、 復号化方法、 装置及びプログラム、 音声符号化、 復号 化方法、 装置及びプログラム 技術分野
この発明は、 音声信号や音楽信号などの音響信号を符号化して伝送する移動通 信システムやインタ一ネッ ト等における低ビットレート音響信号符号化、 復号化 方法及び装置、 これらに適用する音響パラメータ符号化、 復号化方法及装置、 及 ぴこれら方法をコンピュータで実施するプログラムに関する。
従来の技術
ディジタル移動通信や音声蓄積の分野においては、 電波や記憶媒体の有効利用 のために、 音声情報を圧縮し、 高能率で符号化する音声符号化装置が用いられて いる。 このような音声符号化装置は、 低ビットレートでも高い品質の音声信号を 表現できるように、 音声信号を表現するのに適したモデルを用いた方式を用いて いる。 例えば 4kbi t/s〜8kbit/sのビットレートにおいて広く実用化されている方 式として、 CELP (Code Exci ted Linear Prediction:符号励振線形予測符号化) 方式が挙げられる。 CELPの技術については、 M. R. Schroeder and B. S. Atal : "Code-Exci ted Linear Prediction (CELP) : High-qual ity Speech at Very Low Bi t Rates", Proc. ICASSP- 85, 25. 1. 1, pp. 937-940, 1985" に示されている。
CELP型音声符号化方式は、 人間の発声機構に対応する音声合成モデルに基づい ており、 声道特性を表す線形予測係数で表現されるフィルタと、 このフィルタを 駆動する励振信号とから、 音声信号を合成する。 具体的には、 ディジタル化され た音声信号をある一定のフレーム長 (5 m s ~ 5 0 m s程度) 毎に区切り、 フレ .ーム毎に音声信号の線形予測を行い、 線形予測による予測残差 (励振信号) を既 知の波形からなる適応符号べクトルと固定符号べクトルを用いて符号化するもの である。 適応符号ベクトルは、 過去に生成した駆動音源信号を表すベク トルとし て適応符号帳に格納されており、 音声信号の周期成分を表現するために用いられ る。 固定符号べクトルは固定符号帳に予め用意された定められた数の波形を有す るべクトルとして格納されており、 適応符号帳では表現できない非周期的成分を 主として表現するために用いられる。 固定符号帳に格納されるベクトルには、 ラ ンダムな雑音系列から成るべクトルや、 何本かのパルスの組み合わせによって表 現されるべクトルなどが用いられる。
数本のパルスの組み合わせによつて前記固定符号べクトルを表現する固定符号 帳の代表的なものの一つに代数的固定符号帳がある。 代数的固定符号帳について は 「ITU- T勧告 G. 729J などに具体的内容が示されている。
従来の音声符号化システムにおいて、 音声の線形予測係数は、 偏自己相関 (PARC0R) 係数や、 線スぺクトル対 (LSP: Line Spectrum Pai rs, 線スぺクトル 周波数ともいわれる) などのパラメータに変換され、 更に量子化されて、 デイジ タル符号に変換された後、 記億、 または伝送される。 これらの方法の詳細は、 例 えば、 古井貞熙著、 "ディジタル音声処理" (東海大学出版会) に記載されている ( この線形予測係数の符号化において、 LSPパラメータの符号化方法としては、 過去の 1以上のフレームにおいてべクトル符号帳から出力された符号べクトルに 重み係数符号帳から選択した重み係数を乗じた重みつきベクトル、 あるいは、 こ のベクトルに、 予め求めておいた音声信号全体の LSPパラメータの平均ベクトル を加えたベクトルによって、 現在のフレームの量子化パラメータを表現し、 この 量子化パラメータの、 入力音声から求められた LSPパラメ一タに対する歪み、 即 ち量子化歪が最小または十分小になるように、 前記べクトル符号帳が出力すべき 符号べクトルと重み係数符号帳が出力すべき重み係数セットを選択し、 それらを LSPパラメータの符号として出力する。
これは、 一般に、 重み付きベクトル量子化あるいは、 重み係数を過去からの予 測係数と考えれば、 移動平均 (MA: Moving Average)予測ベクトル量子化といわれ る。
復号側では、 受け取ったベク トル符号と重み係数符号から、 現フレームの符号 ベクトルと過去の符号ベクトルに重み係数を乗じ、 あるいは、 さらに、 予め求め ておいた音声信号全体の LSPパラメータの平均べクトルを加えたベタトルによつ て、 現在のフレームの量子化ベクトルとして出力する。
各フレームの符号べクトルを出力するべクトル符号帳としては、 基本的な 1段 のべク トル量子化器、 べク トルの次元を分割した分割べクトル量子化器、 2段あ るいはそれ以上の多段べクトル量子化器、 又は、 多段と分割べクトル量子化器を 組み合わせた、 多段 ·分割べクトル量子化器といった構成が可能である。
上記従来の LSPパラメータ符号器 ·復号器では、 無音区間及び定常雑音区間に おいて、 フレーム数が多いため、 また符号化処理、 復号化処理が多段構成である ため、 無音区間や定常雑音区間に対応して合成したパラメータが必ずしもスム一 ズに変化するようにベクトルを出力することができなかった。 なぜならば、 符号 化に用いられるベクトル符号帳は、 通常学習によって求められるが、 この学習に おいては学習音声中に無音区間や定常雑音区間が十分な量が含まれていないため、 無音区間あるいは定常雑音区間に相当するべクトルを、 必ずしも十分反映させて 学習させることができなかったり、 また、 量子化器に与えられるビット数が少な いとこれら、 非音声区間に対応する量子化べクトルを十分含んだ符号帳を設計す ることはできなかった。
このような LSPパラメータ符号器 ·復号器では、 実際の通信時の符号化におい て、 非音声区間の量子化性能を十分に発揮できず、 再生音として品質の劣化がさ けられなかった。 またこのような問題は音声信号のスペク トル包絡を表わす線形 予測係数と等価な音響パラメータの符号化のみならず、 音楽信号に対する同様な 符号化の場合も生じていた。
この発明の目的は、 かかる点に鑑みてなされたものであり、 従来の音響信号の スぺクトル包絡を表わす線形予測係数と等価な音響パラメータの符号化 ·復号に おいて、 無音区間および定常雑音区間に相当するベク トルを出力しやすくするこ とにより、 これらの区間での品質劣化の少ない音響パラメ一タ符号化、 復号化方 法及びその装置、 これらを用いた音響信号符号化 ·復号化方法及び装置、 及びこ れらの方法をコンピュータで実施するプログラムを提供することにある。 発明の開示
この発明は、 音響信号のスぺクトル包絡を表わす線形予測係数と等価な音響パ ラメ一夕、 つまり LSPパラメータ、 パラメータ、 パーコールパラメータなどの パラメータ (以下単に音響パラメータと記す) の符号化 '復号において、 本来符 号帳の学習によって得られない、 無音区間あるいは定常雑音区間に相当するほぼ 平坦なスぺクトラム包絡を表す音響パラメータべク トル符号をべクトルを符号帳 に加えておき、 選択可能にしたことを主要な特徴とする。 従来の技術とは、 ほぼ 平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルを 予め計算によって求めて、 べクトル符号帳の一つのべクトルとして格納しておく こと、 及び、 多段べクトル量子化構成や分割べクトル量子化構成において、 前記 符号べクトルを出力させる構成にしたことが異なる。
この発明による音響パラメ一タ符号化方法は、
(a) 音響信号のスぺクトル包絡特性を表す線形予測係数と等価な音響パラメ一 タを一定時間長のフレーム毎に算出するステップと、
(b) 複数の符号ベクトルを、 それらを代表するインデックスに対応して格納し たべクトル符号帳から、 最も近い過去の少なくとも 1つのフレームにおいて出力 された符号べクトノレと、 現フレームにおいて選択された符号べクトルに対し、 1 セット以上の重み係数をそれらを代表するインデックスに対応して格納した係数 符号帳から選択したセットの重み係数をそれぞれ乗算して加え合わせて重み付き ベタトルを生成し、 上記重み付きべクトルの成分を含むべクトルを、 現フレーム の上記音響パラメータに対する量子化音響パラメータの候補として求めるステツ プと、
(c) 上記量子化音響パラメータの候補の、 上記算出した音響パラメータに対す る歪みが最小となるように基準を用いて、 上記べクトル符号帳の符号べクトルと 上記係数符号帳の重み係数のセットを決定し、 それら決定した符号ベクトル及び 重み係数のセッ トを表すィンデックスを上記音響パラメータの量子化符号と決定 して出力するステップ、
とを含み、
上記べク.トル符号帳は格納されている符号べクトルの 1つとして、 上記ほぼ平 坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルを含 む。
この発明による音響パラメータ復号化方法は、
(a) 音響信号のスぺクトル包絡特性を表す線形予測係数と等価な音響パラメ一 タの複数の符号べクトルをそれらを代表するインデックスと対応して格納したベ クトル符号帳と、 1セット以上の重み係数をそれらのセットを代表するインデッ タスと対応して格納した係数符号帳とから、 フレームごとに入力された符号が表 すィンデッタスに対応する符号べクトルと 1セットの重み係数を出力するステツ プと、
(b) 最も近い過去の少なくとも 1つのフレームにおいて上記ベクトル符号帳か ら出力された上記符号べクトルと、 現フレームにおいて上記べクトル符号帳から 出力された符号べクトルとにそれぞれ上記出力されたセッ卜の重み係数を乗算し て加え合わせて重み付きべクトルを生成し、 その重み付きべクトルの成分を含む ベタトルを現在のフレームの復号された量子化べクトルとして出力するステップ、 とを含み、
上記べクトル符号帳は格納されている符号べクトルの 1つとして、 ほぼ平坦な スぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルを含む。 この発明による音響パラメータ符号化装置は、
入力音響信号をフレームごとに分析し音響信号のスぺクトル包絡特性を表す線 形予測係数と等価な音響パラメータを算出するパラメータ算出手段と、
複数の符号べクトルをそれらを代表するインデックスと対応して格納したべク トル符号帳と、
1セット以上の重み係数をそれらのセッ トを代表するインデックスと対応して 格納した係数符号帳と、
上記ベクトル符号帳から出力された現フレームに対する符号ベクトルと、 最も 近い過去の少なくとも 1つのフレームにおいて出力された符号べクトルとに対し、 上記係数符号帳から選択したセッ卜の重み係数のそれぞれとを乗算して加え合わ せて重み付きべクトルを生成し、 生成した上記重み付きべクトルの成分を含むベ クトルを、 現フレームの上記音響パラメータに対する量子化音響パラメータの候 補として出力する量子化パラメ一タ生成手段と、
上記量子化音響パラメータの、 上記パラメ一タ算出手段で算出された音響パラ メータに対する歪みを計算する歪み計算部と、
上記歪みが最小になるように基準を用いて、 上記べクトル符号帳の符号べクト ルと上記係数符号帳のセットの重み係数を決定し、 それら決定された符号べクト ル及ぴ重み係数のセットをそれぞれ代表するインデックスを上記音響パラメ一夕 の符号として出力する符号帳検索制御部、
とを含み、
上記べクトル符号帳は、 ほぼ平坦なスぺクトラム包絡を表す音響パラメータべ クトルの成分を含むべクトルを 1つの符号べクトルとして含むように構成されて いる。
この発明による音響パラメータ復号化装置は、
音響信号のスぺクトル包絡特性を表す線形予測係数と等価な音響パラメータの 複数の符号べクトルをそれらを代表するインデックスと対応して格納したべクト ル符号帳と、
1セット以上の重み係数をそれらを代表するインデックスと対応して格納した 係数符号帳と、
フレームごとに入力される符号が表すィンデックスに応じて上記べクトル符号 帳から 1つの符号べクトルを出力させ、 上記係数符号帳からセットの重み係数を 出力させ、 現フレームで出力された上記符号ベクトルと、 最も近い過去の少なく とも 1つのフレームにおいて出力された符号べクトルとに上記現フレームで出力 されたセッ卜の重み係数をそれぞれ乗算して加え合わせた重み付きべクトルを生 成し、 生成した上記重み付きべクトルの成分を含むべクトルを現フレームの復号 された量子化音響パラメータとして出力する量子化パラメ一夕生成手段、 とを含むように構成され、
上記べクトル符号帳には、 ほぼ平坦なスぺクトラム包絡を表す音響パラメータ べクトルの成分を含むべクトルが符号べクトルの 1つとして格納されている。
この発明による入力音響信号を符号化する音響信号符号化装置は、
上記音響パラメータ符号化方法を用いて、 入力音響信号のスぺクトル特性を符 号化する手段と、
上記入力音響信号の周期成分を表す適応符号べクトルを保持した適応符号帳と - 複数の固定べクトルを格納した固定符号帳と、
上記適応符号帳からの適応符号べクトルと上記固定符号帳からの固定べクトル とに基づいて生成された音源べクトルを励振信号として入力し、 上記量子化音響 パラメータに基づいたフィルタ係数を用いて合成音響信号を合成するフィルタ手 段と、
上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固 定符号帳と上記適応符号帳から選択する適応符号べクトルと固定べクトルを決定 し、 決定された上記適応符号ベクトル及び固定ベクトルにそれぞれ対応する適応 符号と固定符号を出力する手段、
とを含むように構成される。
この発明による入力符号を復号して音響信号を出力する音響信号復号化装置は, 上記音響パラメータ復号化方法を用いて、 入力された符号からスぺクトル包絡 特性を表す線形予測係数と等価な音響パラメータを復号する手段と、
複数の固定べクトルを格納した固定符号帳と、
合成音響信号の周期成分を示す適応符号べクトルを保持した適応符号帳と、 入力された適応符号及び固定符号により、 上記固定符号帳から対応する固定べ クトルを取り出し、 上記適応符号帳から対応する適応符号ベク トルを取出し、 こ れらをベクトル合成して励振ベクトルを生成する手段と、
上記音響パラメータに基づいたフィルタ係数が設定され、 上記励振べクトルに より音響信号を再生するフィルタ手段、
とを含むように構成される。
この発明による入力音響信号を符号化する音響信号符号化方法は、
(A) 上記音響パラメータ符号化方法を用いて、 入力音響信号のスペク トル特性 を符号化するステップと、
(B) 入力音響信号の周期成分を示す適応符号ベクトルを保持した適応符号帳か らの適応符号べクトルと、 複数の固定べクトルを格納した固定符号帳からの固定 べクトルとに基づいて生成された音源べクトルを励振信号として使用し、 上記量 子化音響パラメータに基づいたフィルタ係数により合成フィルタ処理して合成音 響信号を生成するステップと、
(0 上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上 記固定符号帳と上記適応符号帳から選択する適応符号べクトルと固定べクトルを 決定し、 それら決定された適応符号べクトルと固定べクトルにそれぞれ対応する 適応符号と固定符号を出力するステップ、
とを含む。
この発明による入力符号を復号して音響信号を出力する音響信号復号化方法は,
(A) 上記音響パラメータ復号化方法を用いて、 入力された符号からスペクトル 包絡特性を表す線形予測係数と等価な音響パラメータを復号するステツプと、
(B) 入力された適応符号及び固定符号により、 入力音響信号の周期成分を表す 適応符号べクトルを保持した適応符号帳から適応符号べクトルを取出し、 複数の 固定べクトルを格納した固定符号帳から対応する固定べクトルを取り出し、 これ ら適応符号ベクトルと固定べクトルをべクトル合成して励振べクトルを生成する ステップと、
(0 上記音響パラメータに基づいたフィルタ係数を使って上記励振べクトルを 合成フィルタ処理して合成音響信号を再生するステップ、
とを含む。
上述のこの発明は、 コンピュータで実施可能なプログラムの形態で提供するこ とが出来る。
この発明によれば、 重み付きベクトル量子化器 (あるいは、 MA予測ベクトル 量子化器) において、 ベクトル符号帳の符号ベクトルとして、 ほぼ平坦なスぺク トラム包絡を表す音響パラメータべクトルの成分を含むべクトルを予め求めて格 納しているので、 対応する無音区間、 あるいは, 定常雑音区間に相当する音響パ ラメータに相当する量子化べクトルを出力することができる。
また、 この発明の他の実施形態によれば、 音響パラメータ符号化装置 .復号化 装置のもつべクトル符号帳の構成として、 多段べクトル符号帳を使用する場合は、 その 1つの段の符号帳に、 ほぼ平坦なスぺクトラム包絡を表す音響パラメータべ クトルの成分を含むぺクトルを格納しておき、 他の段の符号帳には、 零べクトル を格納しておくことにより、 対応する無音区間、 あるいは, 定常雑音区間に相当 する音響パラメータに相当する量子化べクトルを出力することができる。
零べクトルは必ずしも格納しないでもよい。 零べクトルを格納しない場合は、 1つの段の符号帳から上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべ クトルの成分を含むべクトルが選択されたときには、 上記ほぼ平坦なスぺクトラ ム包絡を表す音響パラメータべクトルの成分を含むべクトルを現フレームの符号 べクトル候補として出力すればよい。
またべクトル符号帳を分割べクトル符号帳で構成する場合は、 ほぼ平坦なスぺ クトラム包絡を表す音響パラメータべクトルの成分を含むべクトルの次元が分割 された複数の分割ベクトルを用い、 これらの分割ベクトルをそれぞれ複数の分割 べクトル符号帳に 1つづつ分配格納しておくことにより、 各分割べクトル符号帳 の探索ではそれぞれの分割べクトルが選択され、 それを統合したべクトルを対応 する無音区間、 あるいは, 定常雑音区間に相当する音響パラメータに相当する量 子化べクトルとして出力することができる。
さらに、 べクトル量子化器を多段 ·分割べクトル量子化構成とし、 上記多段べ クトル量子化構成と分割べクトル量子化構成の技術を組み合わせることにより、 対応する無音区間、 あるいは, 定常雑音区間に相当する音響パラメータに相当す る量子化べクトルとして出力することができる。
符号帳を多段構成とする場合に.は、 1段目の符号帳の各符号べクトルに対応し て、 2段目以降の符号帳のそれぞれに対するスケーリング係数を、 スケーリング 係数符号帳として設け、 1段目符号帳の選択した符号べクトルに対応するスケー リング係数をそれぞれのスケーリング係数符号帳から読み出し、 2段目符号帳か らそれぞれ選択した符号べクトルに乗算することにより、 量子化歪のより小さい 符号化が実現できる。
このように、 この発明の目的である、 上記区間での品質劣化の少ない音響パラ メータ符号化 ·復号化方法及びその装置を提供することができる。
この発明の音響信号符号化装置は、 その線形予測係数の量子化において、 線形 予測係数と等価な音響パラメータ領域において、 前記パラメータ符号化装置の何 れかが用いられる。 この構成によれば、 上記いずれかと同様の作用効果を得るこ とができる。
この発明の音響信号復号化装置は、 その線形予測係数の復号において、 線形予 測係数と等価な音響パラメータ領域において、 前記パラメータ復号装置の何れか が用いられる。 この構成によれば、 上記いずれかと同様の作用効果を得ることが できる。 図面の簡単な説明
図 1はこの発明による符号帳が適用された音響パラメータ符号化装置の機能構 成を示すブロック図。
図 2はこの発明による符号帳が適用された音響パラメータ復号化装置の機能構 成を示すプロック図。
図 3は LSPパラメータ符号化及び復号化のためのこの発明によるべクトル符号 帳の構成例を示す図。
図 4は多段構成とした場合のこの発明によるべクトル符号帳の構成例を示す図 c 図 5は分割べクトル符号帳で構成した場合のこの発明によるべクトル符号帳の 構成例を示す図。
図 6は多段べクトル符号帳にスケ一リング係数を適用した場合のこの発明によ るべクトル符号帳の構成例を示す図。
図 7は 2段目符号帳を分割べクトル符号帳で構成した場合のこの発明によるべ クトル符号帳の構成例を示す図。
図 8は図 7の符号帳における 2つの分割べクトル符号帳に対しそれぞれスケー リング係数を適用した場合のベクトル符号帳の構成例を示す図。
図 9は図 4の多段べクトル符号帳の各段を分割べクトル符号帳とした場合のベ クトル符号帳の構成例を示す図。
図 1 O Aはこの発明による符号化方法が適用された音声信号伝送装置の構成例 を示すプロック図。
図 1 0 Bはこの発明による復号化方法が適用された音声信号受信装置の構成例 を示すプロック図。
図 1 1はこの発明による符号化方法が適用された音声信号符号化装置の機能構 成を示す図。
図 1 2はこの発明による復号化方法が適用された音声信号復号化装置の機能構 成を示す図。 図 1 3は、 この発明による符号化装置及び復号化装置をコンピュータで実施す る場合の構成例を示す図。
図 1 4はこの発明の効果を説明するためのグラフ。 発明を実施するための最良の形態
実施例 1
次に図面を参照して、 この発明の実施例について説明する。
図 1は、 この発明による線形予測パラメータ符号化法を適用した、一実施例の 音響パラメータ符号化装置の構成例を示すプロック図である。 この符号化装置は 線形予測分析部 1 2と、 LSPパラメータ算出部 1 3と、 及びパラメータ符号化部 1 0を構成する符号帳 1 4、 量子化パラメータ生成部 1 5、 歪計算部 1 6、 符号 帳検索制御部 1 7とから構成されている。 図において、 入力端子 T 1からは、 例 えばディジタル化された一連の音声信号サンプルが入力される。 線形予測分析部 1 2では、 内部のバッファに蓄えられた 1フレーム毎の音声信号サンプルに対し て、 線形予測分析を行い、 一組の線形予測係数を算出する。 今、 線形予測分析の 次数を P次とすると、 LSP パラメータ算出部 1 3では、 p次の線形予測係数から、 等価な P次の LSP (線スペクトル対) パラメータを算出する。 これらの処理方法 の詳細は、 前述の古井の著書に記載されている。 この p個の LSPパラメータを
f (n) = ( ), f2(n) fp(n)) (1)
のようにベクトルとして表現する。 ここで、 整数 nは、 あるフレームの番号 nを 示し、 その時のフレームをフレーム nと呼ぶことにする。
符号帳 1 4には、 学習により求めた LSPパラメータべクトルを代表する N個の 符号べクトルが格納されたべクトル符号帳 1 4 Aと、 K個の重み係数セットが格 納された係数符号帳 1 4 Bとが設けられており、 符号べクトルを指定するインデ ックス . Ix(n)と、 重み係数符号を指定するインデックス Iw(n)によって、 それぞれ 対応する符号べクトル Χ (Π)と、 重み係数セット(WQ, Wj wn)を出力する。 量 子化パラメータ生成部 1 5は直列に接続された m個のバッファ部 ΙδΒ!, . . . , 15Bm、 m+1個の乗算器 15A。, 15A, 15Am、 レジスタ 1 5 C、 ベクトル加算器 1 5 Dから なる。 べクトル符号帳 1 4 Aから候補の 1つとして選択された現在フレーム nの 符号べクトル x(n)と、 バッファ部
Figure imgf000014_0001
に蓄えられている過去のフレーム n- 1, . . ., n-mに対し確定された符号べクトル x(n-l) , . . ., x(n-m)との符号べクトルと にそれぞれ乗算器 15A。 15Araで選択されたセッ卜の重み係数 w。, . . .,wmがそれ それ乗算され、 これら乗算結果が加算器 1 5 Dで加算され、 さらに、 予め求めて おいた音声信号全体の LSPパラメータの平均べクトル yaveがレジスタ 1 5 Cから 加算器 1 5 Dに加えられる。 このようにして加算器 1 5 Dから量子化べクトルの 候補、 即ち LSPパラメータの候補 y(n)が生成される。 平均ベクトル yaveとしては、 有声部の平均べクトルを使用してもよいし、 後述のように零べクトルを使用して もよい。
現在のフレーム nに対しべクトル符号帳 1 4 Aから選択する符号べクトル x(n) を
x(n) = i (n) , χ2(η xp i)) (2)
とおき、 同様に、 1フレーム前の確定された符号ベクトルを x(n-l)、 2フレーム 前の確定された符号べクトルを x(n-2)、 mフレーム前の確定された符号べクトル を x(n- m)とおくと、 現在のフレームの量子化ベクトル候補
y(n) = (y, (n) , y2(n) , — ypuu) (3)
は、
y =w0 · x(n) +∑ Wj · x(n-j) +yave (4)
で表される。 ここで、 mの値は、 大きいほど量子化効率は良いが、 符号誤りが生 じた時の影響が mフレーム後まで及ぶ他、 符号化して蓄積した音声を途中から再 生する場合にも、 mフレーム過去に遡る必要があるため、 mは必要に応じて適切 に選択される。 音声通信用としては、 1 フレーム 2 O m s程度の場合、 mの値は、 6以下で十分であり、 1〜3といった値でも良い。 この mを移動平均予測の次数 とも呼ぶ。
こうして得られた量子化ベク トルの候補 y(n)は、 歪み計算部 1 6に送られ、 L P Sパラメータ算出部 1 3で算出した LSPパラメータ f (n)に対する量子化歪みを 計算する。 歪み dは、 例えば、 以下のような重み付きユークリッド距離で定義さ れる。
ά^ Σ Μ- ΐ, -γ- ) 2 (5) ただし、 i=l, -, pは、 LSPパラメータ f (n)より求められる重み係数で、 スぺ クトルのホルマント周波数付近を重視するような重みにすると性能が良い。
符号帳検索部 1 7は、 符号帳 1 4に与えるインデックス Ix(n)と Iw(n)の組を順 次変更し、 それぞれの組のィンデックスについて上述のようにして式(5)の歪 dの 計算を繰り返すことにより符号帳 1 4中のべクトル符号帳 1 4 Aの符号べクトル と係数符号帳 1 4 Bの重み係数セットの中から、 歪み計算部 1 6の出力である歪 み dを最小、 あるいは、 十分小にするものを検索し、 それらのィンデックス Ix (n) , Iw(n)を、 入力 LSPパラメ一夕の符号として端子 T 2から送出する。 端子 T 2から送出された符号 Ix(n) , Iw(n)は、 伝送路を通じて復号器に送られるか、 記憶装置に記憶される。
現在のフレームの出力符号べクトル x(n)が決定されると、 バッファ部 15Β」·の過 去のフレーム(n- j)の符号ベクトル x(n_j) , j=l m- 1は、 順次、 次のバッファ 部 15Bj+1に送られ、 現フレーム nの符号べクトル x(n)はバッファ部 15Btへ入力さ れる。
この発明の特徴は、 上記のような LSPパラメータの重み付きベクトル量子化、 あるいは、 移動平均べクトル量子化による符号化において使用されるべクトル符 号帳 1 4 Aに格納しておく 1つの符号べクトルとして、 前述の平均べクトル yave が零である場合には、 無音区間あるいは定常雑音区間に相当する LSPパラメータ ベクトル Fを、 あるいは、 yaveが零でない場合には、 その LSPパラメータベク トル Fから yaveを差し引いたベクトル C。を格納しておくことである。 即ち、 yaveが零で ない場合は、 無音区間あるいは定常雑音区間に相当する LSPパラメータべクトル を、
F = (F1( F2 Fp)
とすると、 図 1のべクトル符号帳 1 4 Aに格納すべき符号べクトル C。は、
C0= F -yave
として計算する。 無音区間、 あるいは、 定常雑音区間での移動平均予測による符 号化において、 符号ベクトルとして、 mフレームにわたって連続して CQが選択さ れるとすると、 量子化ベクトル y(n)は、
y(n) = w。 · x(n) + ∑ j=1 m Wj · x(n-j) + yave = w0 · C0 +∑ j=1 m Wj · C0 + yave
Figure imgf000016_0001
となる。 ここで、 Woから までの重み係数の和を 1あるいは、 それに近い値であ るとすると、 y(n)は、 C。+yave、 すなわち、 無音区間の LSPパラメータから求めた F、 あるいはそれに近いベク トルを量子化ベクトルとして出力できるようになり. 無音区間あるいは、 定常雑音区間における符号化性能を高くすることができる。 上述のような構成により、 べクトル符号帳 1 4 Aには 1つの符号べクトルとして べクトル Fの成分を含むべクトルが格納されることになる。 このべクトル Fの成 分を含む符号べクトルとしては、 量子化パラメータ生成部 1 5が平均べクトル yaveの成分を含む量子化ベクトル y(n)を生成する場合には、 ベクトル Fから平均 べクトル yaveを減算したものを用い、 平均べクトル yaveの成分を含まない量子化べ クトル y(n)を生成する場合は、 べクトル Fそのものを用いる。
図 2は、 この発明の実施例を適用した復号化装置の構成例であり、 符号帳 2 4 と量子化パラメータ生成部 2 5とから構成されている。 これら符号帳 2 4と量子 化パラメータ生成部 2 5は図 1の符号化装置における符号帳 1 4と量子化パラメ —タ生成部 1 5とそれぞれ同様に構成されている。 図 1の符号化装置より送られ たパラメータ符号としてのインデックス Ix(n) , Iw(n)が入力され、 インデックス Ix(n)に対応する符号べクトル x(n)がべクトル符号帳 2 4 Aより出力され、 また, ィンデックス Iw(n)に対応する重み係数セット Wn. WL . . . , ^が、 係数符号帳 2 4 B より出力される。 ベク トル符号帳 2 4 Aからフレームごとに出力された符号べク トル x(n)は直列接続されたバッファ部 25B! 25ΒΒに順次入力される。 現フレ
—ム nの符号べク トル x(n)と、 バッファ部 25B! 25Baの 1 mフレーム過 去の符号べクトル x(n- 1) x(n-m)とに重み係数 w。, w, wmを乗算器
25A0> 25Aj 25Αηで乗算し、 これら乗算結果を加算器 2 5 Dで加算し、 さらに、 レジスタ 2 5 Cに予め保持された音声信号全体の LSPパラメータの平均べクトル yaveを加算器 2 5 Dに加えることにより得られた量子化べクトル y (n)を復号 LSP パラメータとして出力する。 yaveは、 有声部の平均ベクトルあるいは、 零ベクトル zとしておくことも可能である。
この発明ではこの復号化装置においても、 図 1に示した符号化装置と同じく、 べクトル C。をその一符号べクトルとしてべクトル符号帳 2 4 Aに格納しておくこ とにより、 音響信号の無音区間あるいは、 定常雑音区間で求めた LSPパラメータ ベクトル Fを出力することができる。
図 1中の加算器 1 5 D、 図 2中の加算器 2 5 Dで平均べクトル yaveを加算しな い (零ベクトルとする) 場合は、 ベクトル符号帳 1 4 A、 2 4 Aに無音区間ある いは定常雑音区間に相当する LSPパラメータべクトル Fがべクトル C。の代わりに 一つの符号べクトルとして格納される。 以下の説明においては各べクトル符号帳 1 4 A、 2 4 Aに格納する LSPパラメータべクトル F又はべクトル C。を代表して べクトル C。として表記する。
図 3に、 図 1中のベクトル符号帳 1 4 A、 あるいは、 図 2中のベクトル符号帳 2 4 Aの構成例をべクトル符号帳 4 Aとして示す。 この例は 1段のべクトル符号 帳 4 1を用いた場合であり、 ベクトル符号帳 4 1には、 N個の符号ベクトル
X! xNがそのまま格納されており、 入力されたィンデックス Ix (n)に応じて、
N個の符号ベクトル中のいずれかが選択され出力される。 この発明では、 その中 の 1つの符号ベクトル Xとして前記符号ベクトル CQが用いられている。 ベクトル 符号帳 4 1の N個の符号べクトルは例えば従来と同様に学習により作られるが、 この発明では、 その内のベクトル CQに最も類似した (歪の小さい) 1個のべクト ルが C。でおきかえられるか、 あるいは単に追加される。
ベクトル C。を求めるにはいくつかの方法がある。 1つとして、 通常、 無音区間 あるいは定常雑音区間においては、 入力音響信号のスぺクトル包絡が平坦になる ので、 例えば ρ次の LSPパラメータベクトル Fの場合、 0〜兀 を p+1等分して π/ (1+ρ) , 2π/ (1+ρ) π/ (1+Ρ)のように大きさがほぼ等間隔の Ρ個の値を LSP パラメータベクトルとして使用してもよい。 あるいは、 無音区間、 定常雑音区間 の実際の LSPパラメータべクトル Fから C。=F-yaveにより求める。 あるいは白色雑 音または Hoth雑音を入力したときの LSPパラメータを上記パラメータべクトル F として使用し、 Co=F- yaveを求めてもよい。 なお音声信号全体の LSPパラメータの 平均べクトル yaveは、 一般にはべクトル符号帳 4 1の符号べクトル Xを学習する 際に、 全学習用ベクトルの平均ベクトルとして求めておく。 音響パラメータとして p=10次の LSPパラメータを使用し、 無音区間又は定常雑 音区間の LSPパラメータを 0〜? rの間の値に正規化した 1 0次元のベタトル yave 及び ϋの例を次の表 1に示す。
【表 1】
Figure imgf000018_0001
べクトル 11はこの発明により符号帳に書き込まれる無音区間 ·定常雑音区間を代 表する LSPパラメータの符号べクトルの例である。 このべクトルの要素の値はほ ぼ一定の間隔で増加しており、 これは周波数スぺクトラムがほぼ平坦なことを意 味している。
実施例 2
図 4は、 図 1の LSPパラメータ符号器のベクトル符号帳 1 4 Α、 あるいは、 図 2の LSPパラメ一タ復号化装置のべクトル符号帳 2 4 Αの他の構成例を符号帳 4 Aとして 2段のべクトル符号帳を用いた場合である。 1段目の符号帳 4 1には N 個の P次元符号べクトル x„,. . .,x1Nが格納されており、 2段目の符号帳 4 2には N'個の p次元符号べクトル) (21 ¾.が格納されている。
まず、 符号ベクトルを指定するインデックス Ix (n)が入力されると、 符号解析 部 4 3でそのィンデックス Ix(n)を解析して、 第 1段目の符号べクトルを指定す るインデックス Ix di) !と、 2段目の符号べクトルを指定するインデックス Ix (n)2 を得る。 そして、 各段のインデックス IXG L Ix (n)2にそれぞれ対応する i番目 及び Γ番目の符号ベクトル xH, ¾.を 1段目符号帳 4 1、 及び 2段目符号帳 4 2 より読み出し、 加算部 4 4にて、 両符号ベクトルを加算し、 加算結果を符号べク トル x(n)として出力する。
この 2段構成のベクトル符号帳の場合、 符号ベクトル探索は、 まず 1段目の符 号帳 4 1のみを使って量子化歪が最小のものから順に所定数の候補符号べクトル まで行う。 この探索は、 図 1で示した係数符号帳 1 4 Bの重み係数セットとの組 み合わせで行う。 次に、 各候補の 1段目符号ベクトルと 2段目符号帳のそれぞれ の符号べクトルとの組み合わせについて量子化歪が最小となる符号べクトルの組 み合わせを探索する。
このように 1段目符号帳 4 1を優先して符号ベクトルの探索を行う場合は、 多 段べクトル符号帳 4 Aの 1段目符号帳 4 1内の 1つの符号べクトルとして前記符 号ベクトル Cfl (又は F) を予め格納しておき、 かつ、 2段目の符号帳 4 2内の 1 つの符号ベクトルとして、 零ベクトル zを予め格納しておく。 これにより、 符号 帳 4 1から符号べクトル C。が選択された場合に、 符号帳 4 2から零べクトル zカ 選択され、 その結果、 加算器 4 4から符号帳 4 Aの出力として、 無音区間や、 定 常雑音区間に相当する場合の符号べクトル C。を出力できるような構成を実現して いる。 零ベクトル zを格納しておかず、 符号帳 4 1から符号ベクトル Ceが選択さ れた場合には、 符号帳 4 2からの選択■加算を行わないように構成してもよい。
1段目符号帳 4 1の各符号べクトルと、 2段目符号帳の各符号べクトルのすべ ての組み合わせについて探索を行う場合は、 符号ベクトル Cflと零ベクトル zは互 いに別の符号帳であればどちらの符号帳に格納してもよい。 符号べクトル C。と零 べクトル zは無音区間や定常雑音区間では同時に選択される可能性が高いが、 計 算誤差その他の関係でこれらは必ずしも同時に選択されない場合もある。 各段の 符号帳において符号べクトル C。や零べクトル zは他の符号べクトルの選択と同様 に 1つの符号ベクトルとして選択対象になる。
2段目符号帳 4 2に零ベクトルを格納しないでもよい。 その場合、 1段目符号 帳 4 1からべクトル C。が選択されたときは、 2段目符号帳 4 2から符号べクトル の選択を行わず、 加算器 4 4から符号帳 4 1の符号 をそのまま出力すればよい c 図 4のように符号帳 4 Aを多段の符号帳で構成することにより、 選択可能な符 号べクトルの組み合わせ数だけ符号べクトルを設けたことと実効的に同じであり. 従って、 図 3のような 1段の符号帳のみの場合と比べ、 符号帳のサイズ (ここで は符号ベクトルの総数) を小さくすることができる利点がある。 図 4では 2段の ベク トル符号帳 4 1、 4 2で構成した場合を示したが、 段数が 3以上の場合は単 に追加段数だけ符号帳を追加し、 それぞれの段に対するインデックスによりそれ それの段の符号帳から符号べクトルを選択し、 それらをべクトル合成するだけな ので、 容易に拡張可能である。 実施例 3
図 5は、 図 4の実施例のベクトル符号帳 4 Aにおいて、 1段目符号帳 4 1の各 符号べクトルに対し、 予め決めたスケーリング係数を 2段目符号帳 4 2から選択 される符号べクトルに対し乗算して、 1段目符号帳 4 1からの符号べクトルに加 算して出力する場合である。 スケーリング係数符号帳 4 5が設けられ、 1段目符 号帳 4 1のそれぞれの符号べクトル x„ C0 x1Nに対応して予め学習により 決めた例えば 0. 5〜2程度のスケ一リング係数 sNが格納されており、 1段 目符号帳 4 1と共通のィンデックス
Figure imgf000020_0001
によりアクセスされる。
まず、 符号ベク トルを指定するインデックス Ix(n)が入力されると、 符号解析 部 4 3でそのインデックス Ix(n)を解析して、 第 1段目の符号べクトルを指定す るインデックス Ixdi) ,と、 第 2段目の符号ベク トルを指定するインデックス
Ix(n)2を得る。 インデックス Ixd^に対応する符号べクトル xuを 1段目符号帳 4 1から読み出す。 また、 スケーリング係数符号帳 4 5から、 そのィンデックス Ixdi) !に対応したスケーリング係数 Siが読み出される。 次に、 インデックス Ix(n)2に対応する符号べクトル x2i.を 2段目符号帳 4 2から読み出し、 スケーリン グ係数 Siを乗算器 4 6において、 2段目符号帳 4 2からの符号ベクトル x2i.に乗 算する。 乗算により得られたベクトルと、 1段目符号帳 4 1からの符号ベクトル を加算部 4 4で加算し、 加算結果を符号帳 4 Aからの符号べクトル x(n)として 出力する。 この実施例においても、 符号ベクトルの探索は、 まず、 1段目符号帳 4 1のみ を使用して量子化歪が最小のものから順に所定数の候補符号べクトルを探索する, 次に、 各候補符号ベクトルと、 2段目符号帳 4 2のそれぞれの符号ベクトルとの 組み合わせについて量子化歪が最小となる組を探索する。 この場合、 スケーリン グ係数付き多段ベクトル符号帳 4 Aに対して、 1段目符号帳 4 1内の 1つの符号 ベクトルとして前記ベクトル Coを予め格納しておき、 かつ、 2段目の符号帳 4 2 の 1つの符号ベクトルとして、 零ベクトル zを予め格納しておく。 図 4の場合と 同様に、 2つの符号帳 4 1、 4 2の符号ベクトル間の全組み合わせについて探索 を行うのであれば、 符号べクトル C。と零ベクトル zは互いに別々の符号帳に格納 するのであればどちらに格納してもよい。 あるいは前述の実施例と同様に零べク トル zは格納しなくてもよい。 その場合は、 符号ベクトル C。が選択されたときに は符号帳 4 2からの選択 ·加算を行わない。
このようにして、 無音区間や、 定常雑音区間に相当する場合の符号ベクトルを 出力することができる。 符号べクトル Coと零べクトル zは無音区間や定常雑音区 間では同時に選択される可能性が高いが計算誤差その他の関係でこれらは必ずし も同時に選択されない場合もある。 各段の符号帳において、 符号ベクトル Coや零 べクトル zは他の符号べクトルの選択と同様に 1つの符号べクトルとして選択対 象になる。 図 5の実施例のように、 スケーリング係数符号帳 4 5を使用すること により、 スケーリング係数の数 Nだけ 2段目符号帳を設けたことと実効的に同じ であり、 従って、 より量子化歪の小さい符号化が実現できる利点がある。 実施例 4
図 6は、 図 1のパラメータ符号化装置のベクトル符号帳 1 4 A、 あるいは、 図 2のパラメータ復号化装置のべクトル符号帳 2 4 Aを分割べクトル符号帳 4 Aと して構成しこの発明を適用した場合を示す。 図 6は 2分割のベクトル符号帳で構 成したが、 分割数が 3以上の場合も同様に拡張可能であるので、 ここでは、 分割 数 2の場合の実現について述べる。
この符号帳 4 Aでは、 N個の低次符号べクトル χ^ . , . , χ^を格納した低次べク トル符号帳 4 と、 N'個の高次符号べクトル χΗ1,. . .,¾.を格納した高次べクト ル符号帳 41Hを備える。 出力符号ベクトルを x(n)とすると、 低次及び高次べク トル符号帳 4 41Hは、 p次のうち、 l〜k次までを低次、 k+l〜p次までを高 次として、 それぞれの次元数のベクトルからなる符号帳を構成する。 即ち、 低次 べクトル符号帳 41Lの i番目のべクトルは、
XLi =XLil, XLi2- … ' XLik) 、")
で表され、 高次べクトル符号帳 41Hの Γ番目のべクトルは、
XHi' = XHi'k+1' XHi'k+2. · .. , Xm'pノ (10)
で表される。 入力されたインデックス Ix(n)は解析部 43で Ix(n)Lと Ix(n)Hに分 けられ、 これら IxCii と Ix(n)Hに応じて各符号帳 41L, 41Hより、 それぞれ低 次と高次の分割ベクトル xu, xHi.が選択され、 統合部 47でこれら分割ベクトル xLi. xHi.が統合されて、 出力符号ベクトル x(n)を生成する。 即ち、 統合部 47か ら出力される符号べクトルを x(n)とすると、
X l) =、 , XLi2, ···' XLik I ¾i'k+l- XHi'k+2 XHi'p)
となる。
この実施例では、 低次べクトルの符号帳 41Lの 1つのベクトルとして前記べク トル C。の低次ベク トル CflI<を格納し、 かつ、 高次ベク トルの符号帳 41Hの 1つの ベクトルとして、 前記ベクトル Cflの高次ベクトル C。Hを格納する。 このようにし て、 無音区間や、 定常雑音区間に相当する場合の符号ベクトルとして、
Co= 。 I wOH)
を出力できる構成を実現している。 しかも場合によっては、 じ と他の高次べクト ルの組合せ、 あるいは他の低次べクトルと C。Hの組合せとして出力されることもあ る。 図 6のように分割ベクトル符号帳 41い 41Hを設ければ、 2つの分割べク トルの組み合わせの数だけ符号べクトルを設けたことと等価なので、 それぞれの 分割ベクトル符号帳のサイズを小さくすることができる利点がある。 実施例 5
図 7は、 図 1の音響パラメータ符号化装置のベクトル符号帳 14A、 あるいは、 図 2の音響パラメータ復号化装置のべクトル符号帳 24 Aの更に他の構成例を示 し、 符号帳 4 Aを多段 ·分割ベク トル符号帳として構成した場合である。 この符 号帳 4 Aは、 図 4の符号帳 4 Aにおいて 2段目の符号帳 4 2を図 6と同様の 2分 割のべクトル符号帳で構成したものである。
1段目符号帳 4 1には N個の符号べクトル Xu , . . .,x1Nが格納されており、 2段 目低次符号帳 4 2 ^には N'個の分割べクトル x2U x2U(.が格納されており、 2段 目高次符号帳 4 2 Hには N"個の分割べクトル ¾„ x2HN..が格納されている。 入力されたインデックス Ix(n)は符号解析部 4 3 ,にて、 1段目の符号べクトル を指定するインデックス
Figure imgf000023_0001
と、 2段目の符号べクトルを指定するインデック ス Ix(n)2とに解析される。 1段目のインデックス Ixdi に対応する i番目の符号 ベク トル χ„を 1段目符号帳 4 1より読み出す。 また、 2段目のインデックス Ιχ(η)2は解析部 4 32で Ix(n)2Lと Ιχ(η)に解析され、 これら Ix(n)2L, Ix(n)2Hに より 2段目低次分割べクトル符号帳 4 と、 2段目高次分割べクトル符号帳 4 2 Hのそれぞれ i '番目及ぴ Γ番目の分割べクトル ¾i.及ぴ x2Hi..を選択し、 これら選 択された分割べクトルが統合部 4 7でべクトル統合され、 2段目の符号べクトル x2i .が生成される。 加算部 4 4にて、 1段目の符号ベクトル χπと 2段目の統合べ ク トル x2i. .が加算され、 符号ベクトル x(n)として出力される。
この実施例では、 図 4及び 5の実施例と同様に、 1段目の符号帳 4 1の 1つの 符号ベクトルとして前記ベク トル C。を格納し、 かつ、 2段目の分割ベク トル符号 帳 4 2の低次分割べクトル符号帳 4 2い 高次分割べクトル符号帳 4 2 Hのそれぞ れ 1つずつの分割ベクトルとして、 分割零ベクトル zい zHを格納しておく。 この ようにすることにより、 無音区間や、 定常雑音区間に相当する場合の符号べク ト ルを出力する構成を実現している。 符号帳の段数は 3以上でもよい。 また分割べ クトル符号帳は任意の段に対して用いてもよく、 また 1段当りの分割べクトル符 号帳の数も 2に限らない。 分割する段数も 1以上でもよい。 更に、 1段目符号帳 4 1と 2段目符号帳 4 2い 4 2 H間のすべての組の符号べクトルについて探索を 行うのであれば、 ベクトル C。及び分割零ベクトル zい zHは、 互いに異なる段のど の符号帳に格納してもよい。 あるいは実施例 2及ぴ 3と同様に分割零べクトルを 格納しなくてもよい。 格納しない場合は、 ベク トル Cflが選択されたときに符号帳 4 2い 4 2 Hからの選択 '加算を行わない。 実施例 6
図 8は、 図 7の実施例のべクトル符号帳 4 Aにおける分割べクトル符号帳 4 2 の低次符号帳 4 2しと高次符号帳 4 2 Hに対し、 図 5の実施例におけるスケーリン グ係数符号帳 4 5と同様のスケーリング係数符号帳 4 5Lと 4 5 Hを設けた、 スケ —リング係数付き多段 ·分割べクトル符号帳 4 Aに、 本発明を適用した例である c 低次と高次の分割べクトルにそれぞれ乗じるための係数として、 低次スケーリン グ係数符号帳 4 5 ^と高次スケ一リング係数符号帳 4 5 Hには、 それぞれ N個の値 が例えば約 0. 5〜 2程度の係数を格納しておく。
入力されたインデックス Ix(n)は、 解析部 4 3 iで、 1段目の符号ベクトルを指 定するインデックス Ix n),と、 2段目の符号べクトルを指定するインデックス Ix(n)2とに解析される。 まず、 インデックス Ixd iに対応する符号ベクトル xuを 1段目符号帳 4 1から求める。 また、 インデックス
Figure imgf000024_0001
に対応して低次スケー リング係数符号帳 4 5^と高次スケーリング係数符号帳 4 5Hとから、 それぞれ低 次スケーリング係数 suと高次スケーリング係数 sHiが読み出される。 次に、 イン デックス Ix(n)2は、 解析部 4 32で、 インデックス Ix(n)2Lと Ix(n)2Hに解析され、 これら、 Ix(n)2Lと Ix(n)2Hにより 2段目低次分割べクトル符号帳 4 2Lと 2段目高 次分割ベクトル 4 2Hのそれぞれの分割ベクトル x2Li., を選択する。 それら選 択した分割ベクトルに対し、 乗算器 4 6い 4 6Hにおいて低次と高次のスケーリ ング係数 sHiを乗じて得られたベクトルを統合部 4 7で統合し、 2段目の符号 ベクトル x2iT.が生成される。 加算部 4 4にて、 1段目の符号ベクトル xuと 2段 目の統合べクトル χ2 ..を加算し、 加算結果は符号べクトル x(n)として出力される c この実施例のスケーリング係数付き多段 ·分割べクトル符号帳 4 Aでは、 1段 目符号帳 4 1内の 1つの符号ベクトルとして前記ベクトル C。を格納し、 かつ、 2 段目の分割べクトル符号帳の低次分割べクトル符号帳 4 2ぃ 高次分割べクトル符 号帳 4 分割ベクトルとして分割零ベクトル zい zHをそれぞれ格納する。 こう することにより、 無音区間や定常雑音区間に相当する場合の符号べクトルを出力 する構成を実現している。 符号帳の段数は 3つ以上でもよい。 その場合、 2段目 以降の 2つ以上の段をそれぞれ分割ベクトル符号帳で構成してもよい。 また、 い ずれの場合も、 1段当りの分割べクトル符号帳の数に限らない。 実施例 7
図 9は、 図 1の音響パラメータ符号化装置のベクトル符号帳 4 A、 あるいは、 図 2の音響パラメ一タ復号化装置のベクトル符号帳 2 4 Aの更に別の構成例を示 し、 図 7の実施例における 1段目符号帳 4 1についても図 6の実施例と同様の分 割ベク トル符号帳により構成した場合である。 この実施例では、 1段目低次符号 帳 4 1 こは N個の低次分割べクトル xlu x が格納され、 1段目高次符号帳 4 1 Hには N'個の高次分割ベクトル x1H1 xHN.が格納され、 2段目低次符号帳 4
2 こは N"個の低次分割べクトル x2U, . . . . x2urが格納され、 2段目高次符号帳 4 2
Hには N ' "個の高次分割べクトル x2H1 x2HN...が格納されている。
入力されたィンデックス Ix(n)は符号解析部 4 3にて、 1段目のべクトルを指 定するインデックス Ixdi) !と、 2段目のべクトルを指定するインデックス Ix(n)2 とに解析される。 1段目のインデックス
Figure imgf000025_0001
に対応するベクトルを、 1段目低 次分割べクトル符号帳 4 1い 及び 1段目高次分割べクトル符号帳 4 1 Hのそれぞ れ i番目及び Γ番目の分割ベク トル xlu, x1Hi.を選択し、 これらを統合部 4 71で 統合して 1段目の統合べクトル xHi.を生成する。
また、 2段目のインデックス Ix(n)2も 1段目と同様に、 2段目低次分割べクト ル符号帳 4 2 Lと、 2段目高次分割ベクトル符号帳 4 2 Hのそれぞれ i"番目及び
Γ "番目の分割ベク トル x2U.., x2Hi...を選択し、 これらを統合部 4 72で統合して 2 段目の統合ベク トル x2i..i,..を生成する。 加算部 4 4にて、 1段目の統合ベク トル xm.と 2段目の統合べクトル χ2 ...を加算し、 加算結果を符号べクトル x(n)として 出力する。
この実施例では、 1段目においては、 図 6の分割ベクトル符号帳構成と同様に- 1段目の低次べクトルの符号帳 4 の 1つの符号べクトルとして前記べクトル C0 の低次分割ベク トル を格納し、 かつ、 1段目の高次ベクトルの符号帳 4 1 Hの 1つの分割べク トルとして、 前記べク トル C0の高次分割べク トル CMを格納し、 かつ、 2段目の分割ベクトル符号帳 4 2の低次分割ベクトル符号帳 4 2い 2段目 の高次分割べクトル符号帳 4 2Hのそれぞれ 1つずつのべクトルとして、 分割零べ クトル ZL, zHを格納する。 この構成により無音区間や、 定常雑音区間に相当する 場合の符号ベクトルを出力できる構成を実現している。 この場合も、 多段の数は 2に限らず、 1段当りの分割べクトル符号帳の数も 2に限らない。 実施例 8
図 1 0は、 この発明を適用した音声信号送信装置および受信装置の構成を示す プロック図である。
音声信号 101は、 入力装置 102によって電気的信号に変換され A/D変換装置 103に出力される。 A/D変換装置 103は入力装置 102から出力された (アナログ) 信号をディジタル信号に変換し音声符号化装置 104へ出力する。 音声符号化装置 104は A/D変換装置 103から出力されたディジタル音声信号を後述する音声符号 化方法を用いて符号化し、 符号化情報を R F変調装置 105へ出力する。 R F変調 装置 105は音声符号化装置 104から出力された音声符号化情報を電波等の伝播媒 体に載せて送出するための信号に変換し送信アンテナ 106へ出力する。 送信アン テナ 106は R F変調装置 105から出力された出力信号を電波 (R F信号) 107と して送信する。 以上が音声信号送信装置の構成および動作である。
送信された電波 (R F信号) 108は受信アンテナ 109によって受信され、 R F 復調装置 110へ出力される。 なお、 図中の電波 (R F信号) 108は受信側から見 た電波 (R F信号) 107のことであり、 伝播路において信号の減衰や雑音の重畳 がなければ電波 (R F信号) 107と全く同じものとなる。 R F復調装置 110は受 信アンテナ 109から出力された R F信号から音声符号化情報を復調して音声復号 化装置 111へ出力する。 音声復号化装置 111は R F復調装置 110から出力された 音声符号化情報から後述する音声復号化方法を用いて音声信号を復号して D/A変 換装置 112へ出力する。 D/A変換装置 112は音声復号化装置 111から出力された ディジタル音声信号をアナログの電気的信号に変換して出力装置 113 へ出力する ( 出力装置 113は電気的信号を空気の振動に変換し音波 114として人間の耳に聴こ えるように出力する。 以上が音声信号受信装置の構成および動作である。
上記のような音声信号送信装置および受信装置の少なくとも一方を備えること により、 移動通信システムにおける基地局装置および移動端末装置を構成するこ とができる。
前記音声信号送信装置は、 音声符号化装置 104にその特徴を有する。 図 1 1は 音声符号化装置 104の構成を示すプロック図である。
入力音声信号は図 1 0の A/D変換装置 103から出力される信号であり、 前処理 部 200に入力される。 前処理部 200では D C成分を取り除くハイパスフィルタ処 理ゃ後続する符号化処理の性能改善につながるような波形整形処理やプリェンフ アシス処理を行い、 その処理された信号 X inを LPC分析部 201および加算器 204 およびパラメータ決定部 212に出力する。 LPC分析部 201は、 X inについて線形 予測分析を行い、 分析結果 (線形予測係数) を LPC量子化部 202へ出力する。 LPC 量子化部 202は、 LSPパラメータ算出部 1 3と、 パラメータ符号化部 1 0と、 復 号部 1 8と、 パラメータ変換部 1 9とから構成されている。 パラメータ符号化部 1 0は、 図 3〜9のいずれかの実施例によるこの発明のベクトル符号帳が適用さ れた図 1におけるパラメータ符号化部 1 0と同様の構成とされている。 また、 復 号部 1 8も図 3〜 9のいずれかの符号帳が適用された図 2の復号化装置と同様の 構成とされている。
LPC分析部 201から出力された線形予測係数 (LPC) は、 LSPパラメータ算出部 1 3で LSPパラメータに変換され、 得られた LSPパラメータはパラメータ符号化 部 1 0で図 1を参照して説明したように符号化される。 符号化して得た符号 I (n) , Iw(n)、 即ち、 量子化 LPCを表す符号 Lは多重化部 2 1 3へ出力されると 共に、 それらの符号 Ix (n) , Iw (n)を復号部 1 8で復号して量子化された LSPパラ メータを得て、 それをパラメータ変換部 1 9で再び LPCパラメータに変換し、 そ の得られた量子化 LPCパラメータを合成フィルタ 203に与える。 合成フィルタ 203は、 前記量子化 LPCをフィルタ係数とし、 加算器 210から出力される駆動音 源信号に対してフィルタ処理により音響信号を合成し、 合成信号を加算器 204へ 出力する。
加算器 204は前記 X inと前記合成信号との誤差信号 £を算出し、 聴覚重み付け 部 211へ出力する。 聴覚重み付け部 211は、 加算器 204から出力された誤差信号 εに対して聴覚的な重み付けをおこない、 聴覚重み付け領域での前記 X inに対す る前記合成信号の歪みを算出し、 パラメータ決定部 212へ出力する。 パラメ一タ 決定部 212は、 聴覚重み付け部 211から出力された前記符号化歪みが最小となる ように、 適応符号帳 205と固定符号帳 207と量子化利得生成部 206とから生成さ れるべき信号を決定する。 なお、 聴覚重み付け部 21 1から出力される符号化歪み の最小化だけでなく、 前記 X inを用いた別の符号化歪み最小化方法を併用して前 記 3つの手段から生成されるべき信号を決定することにより、 さらに符号化性能 を改善することもできる。
適応符号帳 205は、 前記歪みが最小化された時の過去に加算器 210によって出 力された直前フレーム n-1の音源信号をバッファリングしており、 そのパラメ一 夕決定部 212から出力された適応べクトル符号 Aによって特定される位置から音 源べクトルを切り出し、 それを 1フレーム長になるまで繰り返し繋いで所望の周 期成分を含む適応ベクトルを生成し、 乗算器 208へ出力する。 固定符号帳 207に は複数の 1フレーム長の固定べクトルが固定べクトル符号に対応して格納されて おり、 パラメ一夕決定部 212から出力された固定べクトル符号 Fによって特定さ れる形状を有する固定ベクトルを乗算器 209へ出力する。
量子化利得生成部 206は、 パラメータ決定部 212から出力された利得符号 Gに よって特定される適応べクトルと固定べクトルに対する量子化適応べクトル利得 gAと量子化固定べクトル利得 gFをそれぞれ乗算器 208と 209に与える。 乗算器 208は、 量子化利得生成部 206から出力された量子化適応ベクトル利得 gAを、 適 応符号帳 205から出力された適応ベクトルに乗じて、 加算器 210へ出力する。 乗 算器 209は、 量子化利得生成部 206から出力された量子化固定ベクトル利得 gFを、 固定べクトル符号帳 207から出力された固定べクトルに乗じて、 加算器 210へ出 力する。
加算器 210は、 利得乗算後の適応べクトルと固定べクトルとをべクトル加算し て合成フィルタ 203および適応符号帳 205へ出力する。 最後に多重化部 213は、 LPC量子化部 202から量子化 LPCを表す符号 Lを、 パラメータ決定部 212から適 応べクトルを表す適応べクトル符号 Aおよび固定べクトルを表す固定べクトル符 号 Fおよび量子化利得を表す利得符号 Gを、 それぞれ入力し、 これらの符号を多 重化して符号化情報として伝送路へ出力する。 図 1 2は、 図 1 0中の音声復号化装置 111の構成を示すブロック図である。
図において、 R F復調部 110から出力された符号化情報は、 多重化分離部 1301 によって多重化されている符号化情報を個々の符号 L . A, F , Gに分離される ( 分離された LPC符号 Lは LPC復号化部 1302に与えられ、 分離された適応べクトル 符号 Aは適応符号帳 1305に与えられ、 分離された利得符号 Gは量子化利得生成部 1306に与えられ、 分離された固定べクトル符号 Fは固定符号帳 1307へ与えられ る。 LPC復号化部 1302は図 2と同様に構成された復号部 1302Aと、 パラメータ変 換部 1302Bとから構成されている。 多重化分離部 1301から与えられた符号 L = (Ix (n) , Iw(n) )は復号部 1302Aで、 図 2ヒ示したように、 LSPパラメータ領域で 復号し、 それを LPCに変換し、 合成フィルタ 1303に出力する。
適応符号帳 1305は、 多重化分離部 1301から出力された適応べクトル符号 Aで 指定される位置から適応べクトルを取り出して乗算器 1308へ出力する。 固定符号 帳 1307は、 多重化分離部 1301から出力された固定べクトル符号 Fで指定される 固定べクトルを生成し、 乗算器 1309へ出力する。 量子化利得生成部 1306は、 多 重化分離部 1301から出力された利得符号 Gで指定される適応べクトル利得 gAと 固定べクトル利得 gFを復号し乗算器 1308および 1309へそれぞれ出力する。 乗算 器 1308は、 前記適応符号べクトルに前記適応符号べクトル利得 gAを乗算して、 加算器 1310へ出力する。 乗算器 1309は、 前記固定符号ベクトルに前記固定符号 ベク トル利得 gFを乗算して、 加算器 1310へ出力する。 加算器 1310は、 加算器 1308 及び 1309から出力された利得乗算後の適応べクトルと固定べクトルの加算 を行い、 合成フィルタ 1303へ出力する。 合成フィルタ 1303は、 加算器 1310から 出力されたべクトルを駆動音源信号として、 LPC復号化部 1302によって復号され たフィルタ係数を用いて、 フィルタ合成を行い、 合成した信号を後処理部 1304へ 出力する。 後処理部 1304は、 ホルマント強調やピッチ強調といったような音声の 主観的な品質を改善する処理や、 定常雑音の主観的品質を改善する処理などを施 した上で、 最終的な復号音声信号として出力する。
上述では音声信号のスぺクトル包絡を表わす線形予測係数と等価なパラメータ として LSPパラメータを用いたが、 他のパラメータ、 例えば パラメータ、 パー コール係数などを用いてもよい。 これらを用いた場合も、 無音区間や定常雑音区 間においてはスぺクトラム包絡が平坦になるため、 この区間でのパラメータの計 算は容易に行うことができ、 例えば p次の αパラメータの場合は 0次を 1. 0, 1 〜P次を 0. 0とすればよい。 その他の音響パラメータを使用する場合でも、 ほぼ 平坦なスぺクトラム包絡を表すように決めた音響パラメータのべクトルであれば よい。 なお LSPパラメータは量子化効率が良い点から実用的である。
上述において、 ベクトル符号帳として、 多段構成する場合は、 ベク トル C。を例 えば (。= +(。2と二つの合成ベクトルで表わし、 、 C。2を互いに異なる段の符 号帳に格納してもよい。
更にこの発明は音声信号の符号化、 復号化のみならず音楽信号など一般の音響 信号の符号化、 復号化にも適用できる。
また、 この発明の装置はコンピュータによりプログラムを実行させて音響信号 の符号化及ぴ復号化を行うこともできる。 図 1 3は図 3 ~ 9のいずれかのこの発 明による符号帳を使用した、 図 1及び 2の音響パラメータ符号化装置及ぴ復号化 装置、 更にその符号化方法及ぴ復号化方法を適用した図 1 1及び 1 2の音響信号 符号化装置及ぴ復号化装置をコンピュータで実行する実施形態を示す。
この発明を実施するコンピュータは通信網に接続されたモデム 410、 音響信号 の入出力を行う入出力ィンタフェース 420、 ディジタル音響信号あるいは音響信 号符号を一時的に蓄積するバッファメモリ 430、 符号化及び復号化処理をそこで 実行するランダムアクセスメモリ (R AM) 440、 データの入出力及びプログラム 実行の制御を行う中央処理装置 (C P U) 450、 符号化及ぴ復号化プログラムが格 納されたハードディスク 460、 記録媒体 470Mを駆動する駆動装置 470から構成さ れ、 これらは互いに共通のバス 480で接続されている。
記録媒体 470Mとしては、 コンパクトディスク C D, ディジタルビデオディスク D V D , 磁気光学ディスク M O, メモリカード、 その他どのような種類の記録媒 体を使用してもよい。 ハートディスク 460には、 図 1 1及び 1 2の音響信号符号 化装置及び復号化装置において実施する符号化方法及ぴ復号化方法をコンビユー タによる処理手順で表したプログラムが格納されている。 そのプログラムは、 サ ブルーチンとして図 1及び 2の音響パラメ一タ符号化及ぴ復号化を実行するプロ グラムを含む。 入力音響信号を符号化する場合は、 C P U450はハードディスク 460から音響 信号符号化プログラムを R AM440に読み込み、 入出力ィンタフヱ一ス 420を介 してバッファメモリ 430に取り込んだ音響信号をフレームごとに R AM440内で 符号化プログラムに従って処理を行うことにより符号化し、 得られた符号を符号 化音響信号データとして、 例えばモデム 410を介して通信網に送出する。 あるい は一時的にハードディスク 460に保存する。 あるいは記録媒体駆動装置 470によ り記録媒体 470Mに書き込む。
入力符号化音響信号データを復号する場合は、 C P U450はハードディスク 460 から復号プログラムを R AM440に読み込む。 音響符号データがモデム 410を介 して通信網からバッファメモリ 430にダウンロードされるか、 あるいは記録媒体 470Mから駆動装置 470によりバッファメモリ 430に読み込まれる、 C P U440は フレームごとに音響符号データを R AM440において復号プログラムに従って処 理し、 得られた音響信号データを入出力インタフェース 420から出力する。 発明の効果
図 1 4の表 1に、 効果を表す例として、 この発明により符号帳に無音区間のベ クトル C0と零べクトル zを埋め込んだ場合と、 従来のように符号帳にべクトノレ C。 を埋め込まない場合の音響パラメータ符号化装置の量子化性能について示す。 表 1において、 縦軸は、 ケプストラム歪みであり、 これは、 対数スペクトル歪みに 相当するものであり、 デシベル(dB)表示としている。 ケプストラム歪みの小さい ほど量子化性能が良い事を示す。 また、 歪みを計算する音声区間として、 すべて の区間での平均 (Total)、 無音区間 ·音声の定常区間以外の区間(Mode 0)、 及び 音声の定常区間( Mode 1)で、 平均歪みを求めた。 無音区間の存在するのは、 Mode 0 であり、 そこでの歪みは、 提案符号帳の方が 0. 1 ldB低く、 無音及び零ベクトル を挿入する効果が有ることがわかる。 また、 Totalでのケプストラム歪みも提案 符号帳を使った場合に低くなつており、 音声定常区間でも劣化がないことから、 この発明による符号帳の有効性が明らかである。
このように、 この発明では、 現在のフレームの符号ベクトルと過去に出力され た符号ベクトルの重み付き和、 あるいは、 それに予め求めておいた平均ベクトル を加えたべクトルにより線形予測係数と等価なパラメータを量子化する符号化に おいて、 ベクトル符号帳に格納されているベクトルとして、 無音区間あるいは定 常雑音区間に相当するパラメータベクトル、 あるいは、 そのパラメータベクトル から前記平均べクトルを差し引いたべクトルを符号べクトルとして選択し、 その 符号を出力することを可能にしているので、 これらの区間での品質劣化の少ない 符号化 ·復号化方法及びその装置を提供できる。

Claims

請求の範囲
1 . 音響パラメータ符号化方法であり、
(a) 音響信号のスぺクトル包絡特性を表す線形予測係数と等価な音響パラメ一 夕を一定時間長のフレーム毎に算出するステップと、
(b) 複数の符号ベクトルを、 それらを代表するインデックスに対応して格納し たべクトル符号帳から、 最も近い過去の少なくとも 1つのフレームにおいて出力 された符号ベクトルと、 現フレームにおいて選択された符号ベクトルに対し、 1 セット以上の重み係数をそれらを代表するインデックスに対応して格納した係数 符号帳から選択したセットの重み係数をそれぞれ乗算して加え合わせて重み付き ベク トルを生成し、 上記重み付きベク トルの成分を含むベクトルを、 現フレーム の上記音響パラメータに対する量子化音響パラメータの候補として求めるステツ プと、
(c) 上記量子化音響パラメータの候補の、 上記算出した音響パラメータに対す る歪みが最小となるように基準を用いて、 上記ベク トル符号帳の符号ベクトルと 上記係数符号帳の重み係数のセットを決定し、 それら決定した符号べクトル及び 重み係数のセットを表すインデックスを上記音響パラメータの量子化符号と決定 して出力するステップ、
とを含み、
上記ベクトル符号帳は格納されている符号ベクトルの 1つとして、 ほぼ平坦な スぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルを含む。
2. 請求項 1記載の符号化方法において、 上記ベク トル符号帳は、 それぞれ複数 のべクトルがそれらを代表するインデックスに対応して格納された複数段の符号 帳から成り、 上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺ クトラム包絡を表す音響パラメータべクトルの成分を含むべクトルが 1つのべク トルとして格納され、 他の段の符号帳には、 零ベクトルが一つのベクトルとして 格納されており、 上記ステップ (b) は、 上記複数段の符号帳からそれぞれべクト ルを選択し、 それらをべクトル加算して上記現フレームの上記選択した符号べク トルとして出力するステップを含む。
3. 請求項 1記載の符号化方法において、 上記ベクトル符号帳は、 それぞれ複数 のべクトルがそれらを代表するインデックスに対応して格納された複数段の符号 帳から成り、 上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺ クトラム包絡を表す音響パラメータべクトルの成分を含むべクトルが 1つのべク トルとして格納されており、 上記ステップ(b) は、 上記 1つの段の符号帳から上 記パラメータべクトルの成分を含むべクトル以外の符号べクトルを選択した場合 は、 上記複数段の符号帳からそれぞれベクトルを選択し、 それらをベクトル加算 して上記現フレームの上記選択した符号べクトルとして出力し、 上記 1つの段の 符号帳から上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成 分を含むべクトルを選択した場合は、 上記ほぼ平坦なスぺクトラム包絡を表す音 響パラメータべクトルの成分を含むべクトルを上記現フレームの上記選択した符 号べクトルとして出力するステップを含む。
4. 請求項 2又は 3記載の符号化方法において、 上記複数段の符号帳中の少なく とも 1つの段の符号帳は、 符号べクトルの次元が複数に分割された複数の分割べ クトルとして分配格納された複数の分割ベク トル符号帳と、 これら複数の分割べ クトル符号帳から出力される分割べクトルを統合してその段の符号帳の出力べク トルとして出力する統合部とを含む。
5 : 請求項 2又は 3記載の符号化方法において、 上記ほぼ平坦なスペクトラム包 絡を表す音響パラメータべクトルの成分を含むべクトルは、 上記線形予測係数と 等価なパラメータベクトルから、 予め求めておいた音響信号全体の上記線形予測 係数と等価なパラメータの平均べクトルを差し引いて生成したべクトルである。
6. 請求項 1記載の符号化方法において、 上記ベクトル符号帳は、 それぞれ複数 の符号べクトルが格納された複数段の符号帳と、 2段目以降の各符号帳に対し設 けられたスケーリング係数符号帳とを含み、 各上記スケーリング係数符号帳には 1段目の符号帳のそれぞれの符号べクトルに対応して予め決めたスケーリング係 数が格納されており、
上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータべクトルの成分を含むべクトルが格納されており、 残り の段の符号帳には、 それぞれ 1つずつ零べクトルが格納されており、 上記ステップ (b) は、
1段目で選択された符号べクトルに対し、 2段目以降の符号帳に対するスケ一 リング符号帳から対応するスケーリング係数を読み出し、 2段目以降の符号帳か らそれぞれ選択した符号べクトルに乗算し、 乗算結果をそれぞれの段のべクトル として出力するステップと、
上記それぞれの段の出力べクトルと、 上記 1段目のべクトルとをべクトル加算 し、 加算結果を上記べクトル符号帳からの符号べクトルとして出力するステップ、 とを含む。
7. 請求項 2、 3又は 5のいずれかに記載の符号化方法において、 上記ステップ (b)と(c)は共同して、 まず、 上記 1つの段の符号帳から選択した符号ベクトルに よる上記歪の最も小さい所定数の符号ベク トルを探索するステップと、 次に、 各 上記所定数の符号べクトルと、 残りの段の符号帳からそれぞれ 1つずつ選択した 符号べクトルとのすべての組み合わせについてそれぞれ上記歪を求め、 歪が最小 となる組の符号べクトルを決定するステップを含む。
8. 請求項 6記載の符号化方法において、 上記複数段の符号帳のうち、 2段目以 降の少なくとも 1つの段の符号帳は、 符号べクトルの次元が複数に分割された複 数の分割べクトルとして分配格納された複数の分割べクトル符号帳から成り、 上記少なくとも 1つの段の符号帳に対応する上記スケーリング係数符号帳は、 上記複数の分割べクトル符号帳に対して設けられた複数の分割べクトル用スケー リング係数符号帳を含み、 各上記分割べクトル用スケーリング係数符号帳のそれ それの符号べクトルは上記 1段目の符号帳のそれぞれの符号べクトルに対応して 予め決めた分割べクトル用スケ一リング係数がそれぞれ格納されており、
上記ステップ (b) は、
上記少なくとも 1つの段の上記複数の分割ベクトル符号帳からそれぞれ選択さ れた分割ベクトルに対し、 上記 1段目の符号帳で選択されたベクトルのインデッ タスに対応する分割べクトル用スケーリング係数をそれぞれの上記分割べクトル 用スケ一リング係数符号帳から読み出してそれぞれ乗算するステップと、
それら乗算して得られた分割べクトルを統合してその段の符号帳の出力べクト ルとして出力するステップ、 とを含む。
9. 請求項 1記載の符号化方法において、 上記ベクトル符号帳は、 符号ベクトル の次元が複数に分割された複数の分割べクトル符号帳と、 これら分割べクトル符 号帳から出力される分割べクトルを統合して 1つの符号べクトルとして出力する 統合部とよりなり、 - 上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含む べクトルが分割べクトルに分割されて上記複数の分割べクトル符号帳にそれぞれ 1つ分割べクトルとして分配格納されている。
1 0. 請求項 1記載の符号化方法において、 上記ほぼ平坦なスペク トラム包絡を 表す音響パラメータベクトルの成分を含むベク トルは、 予め上記ほぼ平坦なスぺ クトラム包絡を表す音響パラメータべクトルから上記平均べクトルを差し引いて 生成したベクトルであり、 上記ステップ (b) は上記重み付きベクトルに、 予め求 めておいた音響信号全体の上記線形予測係数と等価なパラメータの平均べクトル を加算して上記重み付べクトルの成分を含むべクトルを生成するステップを含む 1 1 . 請求項 1記載の符号化方法において、 上記線形予測係数と等価なパラメ一 タは LSPパラメータである。
1 2. 音響パラメータ復号化方法であり、
(a) 音響信号のスペクトル包絡特性を表す線形予測係数と等価な音響パラメ一 タの複数の符号べクトルをそれらを代表するインデックスと対応して格納したベ クトル符号帳と、 1セット以上の重み係数をそれらのセットを代表するインデッ タスと対応して格納した係数符号帳とから、 フレームごとに入力された符号が表 すインデックスに対応する符号べクトルと 1セットの重み係数を出力するステツ プと、
(b) 最も近い過去の少なくとも 1つのフレームにおいて上記べクトル符号帳か ら出力された上記符号ベクトルと、 現フレームにおいて上記ベクトル符号帳から 出力された符号べクトルとにそれぞれ上記出力されたセットの重み係数を乗算し て加え合わせて重み付きべクトルを生成し、 その重み付きべクトルの成分を含む べクトルを現在のフレームの復号された量子化べクトルとして出力するステップ、 とを含み、 上記べクトル符号帳は格納されている符号べクトルの 1つとして、 ほぼ平坦な スぺク トラム包絡を表す音響パラメータべク トルの成分を含むべクトルを含む。
1 3. 請求項 1 2記載の復号化方法において、 上記べクトル符号帳は、 それぞれ 複数のべクトルがそれらを代表するインデックスに対応して格納された複数段の 符号帳から成り、 上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦な スぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルが 1つの ベクトルとして格納され、 他の段の符号帳には、 零ベクトルが一つのベクトルと して格納されており、 上記ステップ (b) は、 上記複数段の符号帳からそれぞれ上 記入力された符号が表すインデックスにより指定されたべクトルを出力し、 それ らをべクトル加算して加算結果を上記現フレームでの符号べクトルとして出力す るステップを含む。
1 4. 請求項 1 2記載の復号化方法において、 上記ベクトル符号帳は、 それぞれ 複数のべクトルがそれらを代表するィンデッタスに対応して格納された複数段の 符号帳から成り、 上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦な スぺクトラム包絡を表す音響パラメータべクトルの成分を含むべクトルカ 1つの ベクトルとして格納されており、 上記ステップ (b) は、 上記 1つの段の符号帳か ら上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含む べクトル以外の符号べクトルを出力した場合は、 上記複数段の符号帳からそれぞ れべクトルを選択し、 それらをべクトル加算して上記現フレームの上記選択した 符号べクトルとして出力し、 上記 1つの段の符号帳から上記ほぼ平坦なスぺクト ラム包絡を表す音響パラメータべクトルの成分を含むべクトルを選択した場合は, 上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含むベ クトルを上記現フレームの符号べクトルとして出力するステップを含む。
1 5. 請求項 1 3又は 1 4記載の復号化方法において、 上記複数段の符号帳中の 少なくとも 1つの段の符号帳は、 符号べクトルの次元が複数に分割された複数の 分割べクトルとして分配格納された複数の分割べクトル符号帳と、 これら複数の 分割べクトル符号帳から出力される分割べクトルを統合してその段の符号帳の出 力べクトルとして出力する統合部とを含む。
1 6. 請求項 1 3又は 1 4記載の復号化方法において、 上記線形予測係数と等価 なパラメータべクトルの成分を含むベタトルは、 上記線形予測係数と等価なパラ メータべクトルから、 予め求めておいた音響信号全体の上記線形予測係数と等価 なパラメータの平均べクトルを差し引いて生成したべクトルである。
1 7. 請求項 1 2記載の復号化方法において、 上記べクトル符号帳は、 それぞれ 複数の符号ベクトルが格納された複数段の符号帳と、 2段目以降の各符号帳に対 し設けられたスケーリング係数符号帳とを含み、 各上記スケーリング係数符号帳 には 1段目の符号帳のそれぞれの符号べクトルに対応して予め決めたスケーリン グ係数が格納されており、
上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータベクトルの成分を含むベクトルが格納されており、 残り の段の符号帳には、 それぞれ 1つずつ零べクトルが格納されており、
上記ステップ (b) は、
1段目で選択された符号べクトルに対し、 2段目以降の符号帳に対するスケー リング符号帳から対応するスケーリング係数を読み出し、 2段目以降の符号帳か らそれぞれ選択した符号ベクトルに乗算し、 乗算結果をそれぞれの段のベクトル として出力するステップと、
上記それぞれの段の出力べクトルと、 上記 1段目のべクトルとをべクトル加算 し、 加算結果を上記べクトル符号帳からの符号べクトルとして出力するステップ、 とを含む。
1 8. 請求項 1 7記載の復号化方法において、 上記複数段の符号帳のうち、 2段 目以降の少なくとも 1つの段の符号帳は、 符号べクトルの次元が複数に分割され た複数の分割べクトルとして分配格納された複数の分割べクトル符号帳から成り、 上記少なくとも 1つの段の符号帳に対応する上記スケーリング係数符号帳は、 上記複数の分割べクトル符号帳に対し設けられた複数の分割べクトル用スケーリ ング係数符号帳を含み、 各上記分割べクトル用スケーリング係数符号帳には上記 1段目の符号帳のそれぞれの符号べクトルに対応して複数の分割べクトル用スケ ーリング係数が格納されており、
上記ステップ (b) は、 上記少なくとも 1つの段の上記複数の分割べクトル符号帳からそれぞれ選択さ れた分割べクトルに対し、 上記 1段目の符号帳で選択されたべクトルのインデッ クスに対応する分割べクトル用スケーリング係数をそれぞれの上記分割べクトル 用スケーリング係数符号帳から読み出してそれぞれ乗算するステップと、 それら乗算して得られた分割べクトルを統合してその段の符号帳の出力べクト ルとして出力するステップ、
とを含む。
1 9. 請求項 1 2記載の復号化方法において、 上記べクトル符号帳は、 符号べク トルの次元が複数に分割された複数の分割べクトル符号帳と、 これら分割べクト ル符号帳から出力される分割べクトルを統合して 1つの符号べクトルとして出力 する統合部とよりなり、
上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含む べクトルが分割べクトルに分割されて上記複数の分割べクトル符号帳にそれぞれ 1つ分割べクトルとして分配格納されている。
2 0. 請求項 1 2記載の復号化方法において、 上記ほぼ平坦なスペク トラム包絡 を表す音響パラメータべクトルの成分を含むべクトルは、 予め上記ほぼ平坦なス ぺクトラム包絡を表す音響パラメータべクトルから上記平均べクトルを差し引い て生成したベクトルであり、 上記ステップ (b) は上記重み付きベクトルに、 予め 求めておいた音響信号全体の上記線形予測係数と等価なパラメータの平均べクト ルを加算して上記重み付べクトルの成分を含むべクトルを生成するステップを含 む。
2 1 . 請求項 1 2に記載の復号化方法において、 上記線形予測係数と等価なパラ メータは LSPパラメータである。
2 2. 音響パラメータ符号化装置であり、
入力音響信号をフレームごとに分析し音響信号のスぺクトル包絡特性を表す線 形予測係数と等価な音響パラメータを算出するパラメータ算出手段と、
複数の符号べクトルをそれらを代表するインデックスと対応して格納したべク トル符号帳と、 1セット以上の重み係数をそれらのセットを代表するインデックスと対応して 格納した係数符号帳と、
上記べクトル符号帳から出力された現フレームに対する符号べクトルと、 最も 近い過去の少なくとも 1つのフレームにおいて出力された符号べクトノレとに対し- 上記係数符号帳から選択したセットの重み係数のそれぞれとを乗算して加え合わ せて重み付きべクトルを生成し、 生成した上記重み付きべクトルの成分を含むベ クトルを、 現フレームの上記音響パラメータに対する量子化音響パラメータの候 補として出力する量子化パラメータ生成手段と、
上記量子化音響パラメータの、 上記パラメ一タ算出手段で算出された音響パラ メータに対する歪みを計算する歪み計算部と、
上記歪みが小になるような基準を用いて、 上記べクトル符号帳の符号べクトル と上記係数符号帳のセットの重み係数を決定し、 それら決定された符号べクトル 及び重み係数のセットをそれぞれ代表するインデックスを上記音響パラメータの 符号として出力する符号帳検索制御部、
とを含み、
上記べクトル符号帳は、 ほぼ平坦なスぺクトラム包絡を表す音響パラメータべ クトルの成分を含むべクトルを 1つの符号べクトルとして含む。
2 3. 請求項 2 2記載の符号化装置において、 上記ベクトル符号帳は、 それぞれ 複数のべクトルがそれらを代表するインデックスと対応して格納された複数段の 符号帳と、 これら複数段の符号帳から出力されたベク トルをベク トル加算して符 号べクトルを出力する加算器とを含み、
上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータべクトルの成分を含むべクトルが 1つのべクトルとして 格納され、 他の段の符号帳には、 零ベクトルが一つの符号ベクトルとして格納さ れている。
2 4. 請求項 2 3記載の符号化装置において、 上記複数段の符号帳中の少なくと も 1つの段の符号帳は、 符号べクトルの次元が複数に分割された複数の分割べク トルとしてそれぞれそれらを代表するインデックスと対応して分配格納された複 数の分割べクトル符号帳と、 これら複数の分割べクトル符号帳から出力される分 割べクトルを統合してその段の符号帳の出力べクトルとして出力する統合部とを 含む。
2 5. 請求項 2 2記載の符号化装置において、 上記ベクトル符号帳は、
それぞれ複数の符号べクトルがそれらを代表するインデックスと対応して格納 された複数段の符号帳と、
2段目以降の各符号帳に対し設けられ、 1段目の符号帳のそれぞれの符号べク トルに対応して予め決めたスケーリング係数がそれらを代表するインデックスと 対応して格納されたスケーリング係数符号帳と、
1段目で選択された符号べクトルに対し、 2段目以降の符号帳に対するスケー リング符号帳から対応するスケーリング係数を読み出し、 2段目以降の符号帳か らそれぞれ選択した符号べクトルに乗算し、 乗算結果をそれぞれの段のべクトル として出力する乗算手段と、
上記乗算手段からのそれぞれの段の出力べクトルと、 上記 1段目のべクトルと をべクトル加算し、 加算結果を上記べクトル符号帳からの符号べクトルとして出 力する加算器、
とを含み、
上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータべクトルの成分を含むべクトルが格納されており、 残り の段の符号帳には、 零ベク トルが格納されている。
2 6. 請求項 2 5記載の符号化装置において、 上記複数段の符号帳のうち、 2段 目以降の少なくとも 1つの段の符号帳は、 符号べクトルの次元が複数に分割され た複数の分割べクトルとして分配格納された複数の分割べクトル符号帳から成り 上記少なくとも 1つの段の符号帳に対応する上記スケーリング係数符号帳は、 上記複数の分割べクトル符号帳と対応して複数の分割べクトル用スケーリング 係数がそれぞれ 1段目の符号べクトルに対応して格納された複数の分割べクトル 用スケーリング係数符号帳と、
上記少なくとも 1つの段の上記複数の分割べクトル符号帳からそれぞれ出力さ れる分割べクトノレに対し、 上記 1段目の符号帳で選択されたべクトルのインデッ タスに対応する分割べクトル用スケ一リング係数をそれぞれの上記分割べクトル 用スケーリング係数符号帳から読み出してそれぞれ乗算する乗算手段と、 それら乗算結果を統合してその段の符号帳の出力べクトルとして出力する統合 部、
とを含む。
2 7. 請求項 2 2記載の符号化装置において、 上記ベク トル符号帳は、 符号べク トルの次元が複数に分割された複数の分割べクトルとして分配格納された複数の 分割べクトル符号帳と、 これら分割べクトル符号帳から出力される分割べクトル を統合して 1つの符号べクトルとして出力する統合部とよりなり、
上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含む べクトルが分割べクトルに分割されて上記複数の分割べクトル符号帳にそれぞれ 1つ分割べクトルとして分配格納されている。
2 8. 音響パラメータ復号化装置であり、
音響信号のスぺクトル包絡特性を表す線形予測係数と等価な音響パラメータの 複数の符号べクトルをそれらを代表するインデックスと対応して格納したべクト ル符号帳と、
1セット以上の重み係数をそれらを代表するインデックスと対応して格納した 係数符号帳と、
フレームごとに入力される符号が表すィンデックスに応じて上記べクトル符号 帳から 1つの符号ベクトルを出力させ、 上記係数符号帳からセッ トの重み係数を 出力させ、 現フレームで出力された上記符号ベクトルと、 最も近い過去の少なく とも 1つのフレームにおいて出力された符号べクトルとに上記現フレームで出力 されたセッ卜の重み係数をそれぞれ乗算して加え合わせた重み付きべクトルを生 成し、 生成した上記重み付きべクトルの成分を含むべクトルを現フレームの復号 された量子化音響パラメータとして出力する量子化パラメータ生成手段、 とを含み、
上記べクトル符号帳には、 ほぼ平坦なスぺクトラム包絡を表す音響パラメータ べクトルの成分を含むベタトルが符号べクトルの 1つとして格納されている。
2 9. 請求項 2 8記載の復号化装置において、 上記ベクトル符号帳は、 それぞれ 複数のべクトルがそれらを代表するインデックスと対応して格納された複数段の 符号帳と、 これら複数段の符号帳から出力されたべクトルをべクトル加算して符 号べクトルを出力する加算器とを含み、
上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータべク トルの成分を含むべクトノレ力 1つのべクトルとして 格納され、 他の段の符号帳には、 零ベクトルが一つの符号ベクトルとして格納さ れている。
3 0. 請求項 2 9記載の復号化装置において、 上記複数段の符号帳中の少なくと も 1つの段の符号帳は、 符号べクトルの次元が複数に分割された複数の分割べク トルとしてそれぞれそれらを代表するインデックスと対応して分配格納された複 数の分割べクトル符号帳と、 これら複数の分割べクトル符号帳から出力される分 割べクトルを統合してその段の符号帳の出力べクトルとして出力する統合部とを 含む。
3 1 . 請求項 2 8記載の復号化装置において、 上記ベクトル符号帳は、
それぞれ複数の符号べクトルがそれらを代表するインデックスと対応して格納 された複数段の符号帳と、
2段目以降の各符号帳に対し設けられ、 1段目の符号帳のそれぞれの符号べク トルに対応して予め決めたスケ一リング係数がそれらを代表するインデックスと 対応して格納されたスケーリング係数符号帳と、
1段目で選択された符号べクトルに対し、 2段目以降の符号帳に対するスケー リング符号帳から対応するスケ一リング係数を読み出し、 2段目以降の符号帳か らそれぞれ選択した符号べクトルに乗算し、 乗算結果をそれぞれの段のべクトル として出力する乗算手段と、
上記乗算手段からのそれぞれの段の出力ベクトルと、 上記 1段目のベクトルと をべクトル加算し、 加算結果を上記べクトル符号帳からの符号べクトルとして出 力する加算器、
とを含み、 上記複数段の符号帳の 1つの段の符号帳には、 上記ほぼ平坦なスぺクトラム包 絡を表す音響パラメータべクトルの成分を含むべクトルが格納されており、 残り の段の符号帳には、 零ベクトルが格納されている。
3 2. 請求項 3 1記載の復号化装置において、 上記複数段の符号帳のうち、 2段 目以降の少なくとも 1つの段の符号帳は、 符号ベクトルの次元が複数に分割され た複数の分割べクトルとして分配格納された複数の分割べクトル符号帳から成り 上記少なくとも 1つの段の符号帳に対応する上記スケーリング係数符号帳は、 上記複数の分割べクトル符号帳と対応して複数の分割べクトル用スケーリング 係数がそれぞれ 1段目の符号べクトルに対応して格納された複数の分割べクトル 用スケーリング係数符号帳と、
上記少なくとも 1つの段の上記複数の分割べクトル符号帳からそれぞれ出力さ れる分割ベクトルに対し、 上記 1段目の符号帳で選択されたべクトルのインデッ タスに対応する分割べクトル用スケ一リング係数をそれぞれの上記分割べクトル 用スケーリング係数符号帳から読み出してそれぞれ乗算する乗算手段と、
それら乗算結果を統合してその段の符号帳の出力べクトルとして出力する統合 部、 ,
とを含む。
3 3. 請求項 2 8記載の復号化装置において、 上記ベクトル符号帳は、 符号べク トルの次元が複数に分割された複数の分割べクトルとして分配格納された複数の 分割ベクトル符号帳と、 これら分割ベクトル符号帳から出力される分割ベクトル を統合して 1つの符号べクトルとして出力する統合部とよりなり、
上記ほぼ平坦なスぺクトラム包絡を表す音響パラメータべクトルの成分を含む べクトルが分割べクトルに分割されて上記複数の分割べクトル符号帳にそれぞれ 1つ分割べクトルとして分配格納されている。
3 4. 入力音響信号を符号化する音響信号符号化装置であり、
請求項 1記載の音響パラメータ符号化方法を用いて、 入力音響信号のスぺクト ル特性を符号化する手段と、
上記入力音響信号の周期成分を表す適応符号べクトルを保持した適応符号帳と. 複数の固定べクトルを格納した固定符号帳と、 上記適応符号帳からの適応符号べクトルと上記固定符号帳からの固定べクトル とに基づいて生成された音源べクトルを励振信号として入力し、 上記量子化音響 パラメータに基づいたフィルタ係数を用いて合成音響信号を合成するフィルタ手 段と、
上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上記固 定符号帳と上記適応符号帳から選択する適応符号べクトルと固定べクトルを決定 し、 決定された上記適応符号べクトル及び固定べクトルにそれぞれ対応する適応 符号と固定符号を出力する手段、
とを含む。
3 5 . 入力符号を復号して音響信号を出力する音響信号復号化装置であり、
請求項 1 2記載の音響パラメータ復号化方法を用いて、 入力された符号からス ぺクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号する手段と. 複数の固定べクトルを格納した固定符号帳と、
合成音響信号の周期成分を表す適応符号ベクトルを保持した適応符号帳と、 入力された適応符号及び固定符号により、 上記固定符号帳から対応する固定べ クトルを取り出し、 上記適応符号帳から対応する適応符号ベク トルを取出し、 こ れらをべクトル合成して励振べクトルを生成する手段と、
上記音響パラメータに基づいたフィルタ係数が設定され、 上記励振べクトルに より音響信号を再生するフィルタ手段、
とを含む。
3 6 . 入力音響信号を符号化する音響信号符号化方法であり、 '
(A) 請求項 1記載の音響パラメ一夕符号化方法を用いて、 入力音響信号のスぺ クトル特性を符号化するステップと、
(B) 入力音響信号の周期成分を表す適応符号べクトルが保持された適応符号帳 からの適応符号ベクトルと、 複数の固定ベクトルが格納された固定符号帳からの 固定べクトルとに基づいて生成された音源べクトルを励振信号として使用し、 上 記量子化音響パラメータに基づいたフィルタ係数により合成フィルタ処理を行つ て合成音響信号を生成するステップと、
(C) 上記入力音響信号に対する上記合成音響信号の歪みが小さくなるように上 記固定符号帳と上記適応符号帳から選択する適応符号べクトルと固定べクトルを 決定し、 それら決定された適応符号べクトルと固定べクトルにそれぞれ対応する 適応符号と固定符号を出力するステップ、
とを含む。
3 7. 入力符号を復号して音響信号を出力する音響信号復号化方法であり、
(A) 請求項 1 2記載の音響パラメータ復号化方法を用いて、 入力された符号か らスぺクトル包絡特性を表す線形予測係数と等価な音響パラメータを復号するス テツプと、
(B) 入力された符号中の適応符号及び固定符号により、 入力音響信号の周期成 分を示す適応符号べクトルが保持された適応符号帳から対応する適応符号べクト ルを取出し、 複数の固定べクトルが格納された固定符号帳から対応する固定べク トルを取り出し、 これら適応符号べクトルと固定べクトルをべクトル合成して励 振べク トルを生成するステップと、
(C) 上記音響パラメータに基づいたフィルタ係数を使って上記励振べクトルを 合成フィルタ処理して合成音響信号を再生するステップ、
とを含む。
3 8. 請求項 1 〜 1 1のいずれかに記載の音響パラメータ符号化法をコンビユー タで実施するプログラム。
3 9. 請求項 1 2 ~ 2 1のいずれかに記載の音響パラメータ復号化方法をコンビ ユータで実施するプログラム。
4 0. 音響信号を電気的信号に変換する音響入力装置と、
この音響入力信号装置から出力される信号をディジタル信号に変換する AZD 変換装置と、
この A/D変換装置から出力されるディジタル信号の符号化を行う請求項 3 4 記載の音響信号符号化装置と、
この音響信号符号化装置から出力される符号化情報に対して変調処理等を行う R F変調装置と、
この R F変調装置から出力された信号を電波に変換して送信する送信' とを含む音響信号送信装置。
4 1 . 受信電波を受信する受信アンテナと、
上記受信アンテナで受信した信号の復調処理を行う R F復調装置と、 上記 R F復調装置によって得られた情報の復号化処理を行う請求項 3 5記載の 音響信号復号化装置と、
上記音響信号復号化装置によつて復号化されたディジタル音響信号を D A変 換する DZA変換装置と、 上記 D/A変換装置から出力される電気的信号を音響 信号に変換する音響信号出力装置、
とを含む音響信号受信装置。
PCT/JP2001/010332 2000-11-27 2001-11-27 Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound WO2002043052A1 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
AU2002224116A AU2002224116A1 (en) 2000-11-27 2001-11-27 Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
CA002430111A CA2430111C (en) 2000-11-27 2001-11-27 Speech parameter coding and decoding methods, coder and decoder, and programs, and speech coding and decoding methods, coder and decoder, and programs
DE60126149T DE60126149T8 (de) 2000-11-27 2001-11-27 Verfahren, einrichtung und programm zum codieren und decodieren eines akustischen parameters und verfahren, einrichtung und programm zum codieren und decodieren von klängen
EP01997802A EP1353323B1 (en) 2000-11-27 2001-11-27 Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
KR1020037006956A KR100566713B1 (ko) 2000-11-27 2001-11-27 음향 파라미터 부호화, 복호화 방법, 장치 및 프로그램, 음성 부호화, 복호화 방법, 장치 및 프로그램
US10/432,722 US7065338B2 (en) 2000-11-27 2001-11-27 Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-359311 2000-11-27
JP2000359311 2000-11-27

Publications (1)

Publication Number Publication Date
WO2002043052A1 true WO2002043052A1 (en) 2002-05-30

Family

ID=18831092

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/010332 WO2002043052A1 (en) 2000-11-27 2001-11-27 Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound

Country Status (9)

Country Link
US (1) US7065338B2 (ja)
EP (1) EP1353323B1 (ja)
KR (1) KR100566713B1 (ja)
CN (1) CN1202514C (ja)
AU (1) AU2002224116A1 (ja)
CA (1) CA2430111C (ja)
CZ (1) CZ304212B6 (ja)
DE (1) DE60126149T8 (ja)
WO (1) WO2002043052A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7315815B1 (en) 1999-09-22 2008-01-01 Microsoft Corporation LPC-harmonic vocoder with superframe structure
KR100527002B1 (ko) * 2003-02-26 2005-11-08 한국전자통신연구원 음성 신호의 에너지 분포 특성을 고려한 쉐이핑 장치 및 방법
US7463172B2 (en) * 2004-03-03 2008-12-09 Japan Science And Technology Agency Signal processing device and method, signal processing program, and recording medium where the program is recorded
US7668712B2 (en) * 2004-03-31 2010-02-23 Microsoft Corporation Audio encoding and decoding with intra frames and adaptive forward error correction
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US7831421B2 (en) * 2005-05-31 2010-11-09 Microsoft Corporation Robust decoder
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
WO2007129726A1 (ja) * 2006-05-10 2007-11-15 Panasonic Corporation 音声符号化装置及び音声符号化方法
JPWO2007132750A1 (ja) * 2006-05-12 2009-09-24 パナソニック株式会社 Lspベクトル量子化装置、lspベクトル逆量子化装置、およびこれらの方法
US8396158B2 (en) * 2006-07-14 2013-03-12 Nokia Corporation Data processing method, data transmission method, data reception method, apparatus, codebook, computer program product, computer program distribution medium
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US8055192B2 (en) * 2007-06-25 2011-11-08 Samsung Electronics Co., Ltd. Method of feeding back channel information and receiver for feeding back channel information
CN101335004B (zh) * 2007-11-02 2010-04-21 华为技术有限公司 一种多级量化的方法及装置
CN100578619C (zh) * 2007-11-05 2010-01-06 华为技术有限公司 编码方法和编码器
US20090123523A1 (en) * 2007-11-13 2009-05-14 G. Coopersmith Llc Pharmaceutical delivery system
US20090129605A1 (en) * 2007-11-15 2009-05-21 Sony Ericsson Mobile Communications Ab Apparatus and methods for augmenting a musical instrument using a mobile terminal
EP2246845A1 (en) * 2009-04-21 2010-11-03 Siemens Medical Instruments Pte. Ltd. Method and acoustic signal processing device for estimating linear predictive coding coefficients
WO2011044064A1 (en) * 2009-10-05 2011-04-14 Harman International Industries, Incorporated System for spatial extraction of audio signals
CN102623012B (zh) * 2011-01-26 2014-08-20 华为技术有限公司 矢量联合编解码方法及编解码器
SG11201510162WA (en) 2013-06-10 2016-01-28 Fraunhofer Ges Forschung Apparatus and method for audio signal envelope encoding, processing and decoding by modelling a cumulative sum representation employing distribution quantization and coding
CN103474075B (zh) * 2013-08-19 2016-12-28 科大讯飞股份有限公司 语音信号发送方法及系统、接收方法及系统
US9432360B1 (en) * 2013-12-31 2016-08-30 Emc Corporation Security-aware split-server passcode verification for one-time authentication tokens
US9454654B1 (en) * 2013-12-31 2016-09-27 Emc Corporation Multi-server one-time passcode verification on respective high order and low order passcode portions
US9407631B1 (en) * 2013-12-31 2016-08-02 Emc Corporation Multi-server passcode verification for one-time authentication tokens with auxiliary channel compatibility
PL3098812T3 (pl) * 2014-01-24 2019-02-28 Nippon Telegraph And Telephone Corporation Urządzenie, sposób i program do analizy liniowo-predykcyjnej oraz nośnik zapisu
EP3252758B1 (en) * 2015-01-30 2020-03-18 Nippon Telegraph and Telephone Corporation Encoding apparatus, decoding apparatus, and methods, programs and recording media for encoding apparatus and decoding apparatus
US9602127B1 (en) * 2016-02-11 2017-03-21 Intel Corporation Devices and methods for pyramid stream encoding
CN113593527B (zh) * 2021-08-02 2024-02-20 北京有竹居网络技术有限公司 一种生成声学特征、语音模型训练、语音识别方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573097A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 低遅延符号駆動形予測符号化方法
JPH05113800A (ja) * 1991-10-22 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 音声符号化法
JPH06118999A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> 音声のパラメータ情報符号化法
JPH06175695A (ja) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 音声パラメータの符号化方法および復号方法
JPH06282298A (ja) * 1993-03-29 1994-10-07 Nippon Telegr & Teleph Corp <Ntt> 音声の符号化方法
JPH0844400A (ja) * 1994-05-27 1996-02-16 Toshiba Corp ベクトル量子化装置
JPH11136133A (ja) * 1997-10-28 1999-05-21 Matsushita Electric Ind Co Ltd ベクトル量子化法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4896361A (en) * 1988-01-07 1990-01-23 Motorola, Inc. Digital speech coder having improved vector excitation source
JPH0451199A (ja) * 1990-06-18 1992-02-19 Fujitsu Ltd 音声符号化・復号化方式
EP0500961B1 (en) * 1990-09-14 1998-04-29 Fujitsu Limited Voice coding system
US5271089A (en) * 1990-11-02 1993-12-14 Nec Corporation Speech parameter encoding method capable of transmitting a spectrum parameter at a reduced number of bits
JP3151874B2 (ja) * 1991-02-26 2001-04-03 日本電気株式会社 音声パラメータ符号化方式および装置
US5396576A (en) * 1991-05-22 1995-03-07 Nippon Telegraph And Telephone Corporation Speech coding and decoding methods using adaptive and random code books
US5717824A (en) * 1992-08-07 1998-02-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear predictor with multiple codebook searches
US5457783A (en) * 1992-08-07 1995-10-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear prediction
US5727122A (en) * 1993-06-10 1998-03-10 Oki Electric Industry Co., Ltd. Code excitation linear predictive (CELP) encoder and decoder and code excitation linear predictive coding method
US5819213A (en) * 1996-01-31 1998-10-06 Kabushiki Kaisha Toshiba Speech encoding and decoding with pitch filter range unrestricted by codebook range and preselecting, then increasing, search candidates from linear overlap codebooks
KR100527217B1 (ko) 1997-10-22 2005-11-08 마츠시타 덴끼 산교 가부시키가이샤 확산 벡터 생성 방법, 확산 벡터 생성 장치, celp형 음성 복호화 방법 및 celp형 음성 복호화 장치
US6240386B1 (en) 1998-08-24 2001-05-29 Conexant Systems, Inc. Speech codec employing noise classification for noise compensation
DE69941999D1 (de) * 1998-10-09 2010-03-25 Sony Corp Erkennungsvorrichtung, Erkennungsverfahren und Aufzeichnungsmedium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0573097A (ja) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> 低遅延符号駆動形予測符号化方法
JPH05113800A (ja) * 1991-10-22 1993-05-07 Nippon Telegr & Teleph Corp <Ntt> 音声符号化法
JPH06118999A (ja) * 1992-10-02 1994-04-28 Nippon Telegr & Teleph Corp <Ntt> 音声のパラメータ情報符号化法
JPH06175695A (ja) * 1992-12-01 1994-06-24 Nippon Telegr & Teleph Corp <Ntt> 音声パラメータの符号化方法および復号方法
JPH06282298A (ja) * 1993-03-29 1994-10-07 Nippon Telegr & Teleph Corp <Ntt> 音声の符号化方法
JPH0844400A (ja) * 1994-05-27 1996-02-16 Toshiba Corp ベクトル量子化装置
JPH11136133A (ja) * 1997-10-28 1999-05-21 Matsushita Electric Ind Co Ltd ベクトル量子化法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1353323A4 *

Also Published As

Publication number Publication date
KR20030062354A (ko) 2003-07-23
DE60126149D1 (de) 2007-03-08
CZ20031465A3 (cs) 2003-08-13
DE60126149T2 (de) 2007-10-18
CA2430111C (en) 2009-02-24
US7065338B2 (en) 2006-06-20
CN1486486A (zh) 2004-03-31
EP1353323A4 (en) 2005-06-08
KR100566713B1 (ko) 2006-04-03
CA2430111A1 (en) 2002-05-30
AU2002224116A1 (en) 2002-06-03
EP1353323B1 (en) 2007-01-17
EP1353323A1 (en) 2003-10-15
DE60126149T8 (de) 2008-01-31
CZ304212B6 (cs) 2014-01-08
US20040023677A1 (en) 2004-02-05
CN1202514C (zh) 2005-05-18

Similar Documents

Publication Publication Date Title
WO2002043052A1 (en) Method, device and program for coding and decoding acoustic parameter, and method, device and program for coding and decoding sound
US5884253A (en) Prototype waveform speech coding with interpolation of pitch, pitch-period waveforms, and synthesis filter
EP1339040B1 (en) Vector quantizing device for lpc parameters
JP3557662B2 (ja) 音声符号化方法及び音声復号化方法、並びに音声符号化装置及び音声復号化装置
JPH09127991A (ja) 音声符号化方法及び装置、音声復号化方法及び装置
JPH1091194A (ja) 音声復号化方法及び装置
JPH0353300A (ja) 音声符号化装置
JP3582589B2 (ja) 音声符号化装置及び音声復号化装置
JP3353852B2 (ja) 音声の符号化方法
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
JP3268750B2 (ja) 音声合成方法及びシステム
JP3299099B2 (ja) 音声符号化装置
JP3153075B2 (ja) 音声符号化装置
JP3144284B2 (ja) 音声符号化装置
JP2001318698A (ja) 音声符号化装置及び音声復号化装置
JP3063087B2 (ja) 音声符号化復号化装置及び音声符号化装置ならびに音声復号化装置
JP3006790B2 (ja) 音声符号化復号化方法及びその装置
JPH0519796A (ja) 音声の励振信号符号化・復号化方法
JPH11259098A (ja) 音声符号化/復号化方法
JP2002073097A (ja) Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法
JP3192051B2 (ja) 音声符号化装置
JP3024467B2 (ja) 音声符号化装置
JP3092436B2 (ja) 音声符号化装置
JP2947788B1 (ja) 音声および音響信号の高速な符号化方法および装置および記録媒体
JP2000029499A (ja) 音声符号化装置ならびに音声符号化復号化装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NO NZ OM PH PL PT RO RU SD SE SG SI SK SL TJ TM TR TT TZ UA UG US UZ VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1020037006956

Country of ref document: KR

Ref document number: 2001997802

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: PV2003-1465

Country of ref document: CZ

Ref document number: 664/KOLNP/2003

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 10432722

Country of ref document: US

Ref document number: 2430111

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 018218296

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 1020037006956

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: PV2003-1465

Country of ref document: CZ

REG Reference to national code

Ref country code: DE

Ref legal event code: 8642

WWP Wipo information: published in national office

Ref document number: 2001997802

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP

WWG Wipo information: grant in national office

Ref document number: 1020037006956

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2001997802

Country of ref document: EP