WO2002103685A1 - Appareil et procede de codage, appareil et procede de decodage et programme - Google Patents

Appareil et procede de codage, appareil et procede de decodage et programme Download PDF

Info

Publication number
WO2002103685A1
WO2002103685A1 PCT/JP2002/005808 JP0205808W WO02103685A1 WO 2002103685 A1 WO2002103685 A1 WO 2002103685A1 JP 0205808 W JP0205808 W JP 0205808W WO 02103685 A1 WO02103685 A1 WO 02103685A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
encoding
decoding
quantization
sub
Prior art date
Application number
PCT/JP2002/005808
Other languages
English (en)
French (fr)
Inventor
Keisuke Toyama
Shiro Suzuki
Minoru Tsuji
Masayuki Nishiguchi
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP02733479A priority Critical patent/EP1396841B1/en
Priority to DE2002625276 priority patent/DE60225276T2/de
Priority to US10/344,624 priority patent/US7212973B2/en
Publication of WO2002103685A1 publication Critical patent/WO2002103685A1/ja

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients

Definitions

  • the present invention relates to an encoding device and a method, a decoding device and a method, and an encoding program and a decoding program.
  • the present invention relates to digital data such as an audio signal.
  • the present invention relates to an encoding device and method, a decoding device and method, and a decoding device, a decoding device and a method for performing high-efficiency encoding, recording the data on a transmission or recording medium, and receiving or reproducing the decoded data on a decoding side. 2.
  • the audio signal on the time axis is divided into a plurality of frequency bands without encoding and encoded.
  • a signal on the time axis is converted into a signal on the frequency axis (spectral conversion) and divided into a plurality of frequency bands, that is, a coefficient obtained by spectrum conversion.
  • spectral conversion a signal on the frequency axis
  • a coefficient obtained by spectrum conversion a signal on the frequency axis (spectral conversion) and divided into a plurality of frequency bands, that is, a coefficient obtained by spectrum conversion.
  • a high-efficiency coding method combining the above-described non-blocking frequency band division method and the blocking frequency band division method has been proposed.
  • this method for example, after band division is performed by band division coding, a signal of each band is spectrally transformed into a signal on a frequency axis, and a code is produced for each band after the spectrum transformation. Is performed.
  • PQF Polyphase Quadrature lter
  • IVSSP 83 BOSTON Polyphase Quadrature filters-A new subband coding technique
  • Joseph H. RothweilerJ etc.
  • the input audio signal is divided into blocks of a predetermined unit time, and discrete Fourier transform (DFT), discrete cosine transform (DCT) is performed for each block. )
  • DFT discrete Fourier transform
  • DCT discrete cosine transform
  • MDCT is described in ⁇ ICASSP 1987, Subband / Transform Coding Usage Filter Bank Designs Based on Time Domain Aliasing Cancellation, JP Pr incen, AB Bradley, Univ. Of Surrey Royal Melbourne Inst, of Tech. '' Details are provided.
  • the band in which the quantization noise occurs can be controlled. More efficient encoding can be performed audibly. Further, if the signal components of each band are normalized before quantization, for example, by using the maximum value of the absolute value of the signal components in the band, more efficient encoding can be performed. .
  • each frequency band when performing band division is determined in consideration of, for example, human auditory characteristics. That is, generally, for example, an audio signal is divided into a plurality of bands (for example, 32 bands) in a band called a critical band (a critical band) in which the higher the band, the wider the band becomes. There is.
  • a predetermined bit allocation is performed for each band, or an adaptive bit allocation (bit allocation) is performed for each band.
  • bit allocation an adaptive bit allocation
  • bit allocation method for example, a method of allocating bits based on the magnitude of a signal in each band (hereinafter referred to as a first bit allocation 1 'method as appropriate), or using auditory masking
  • a method of obtaining a required signal-to-noise ratio for each band and performing fixed bit allocation hereinafter, appropriately referred to as a second bit allocation method.
  • the first bit allocation method is described in, for example, Adaptive Transform Coding of Speech Signals, R. Zelinski and P. Noll, IEEE Transactions oi Accousties, Speech and Signal Processing, vol.ASSP-25, No. 4, August 1977 ”and so on.
  • the quantization noise spectrum becomes flat and the noise energy is minimized.
  • the masking effect is not used for the auditory sense, the actual auditory noise is not optimal.
  • the second bit allocation method when energy is concentrated at a certain frequency, for example, even when a sine wave or the like is input, the characteristic value is not so good because the bit allocation is fixed. Does not.
  • bits that can be used for bit allocation are divided into a fixed bit allocation pattern that is predetermined for each small block and a bit allocation that depends on the signal size of each block.
  • a high-efficiency coding apparatus that makes the division ratio dependent on the signal related to the input signal, that is, for example, that the smoother the spectrum of the signal, the larger the division ratio into the fixed bit allocation pattern Has been proposed.
  • this method when energy is concentrated in a particular spectrum, such as a sine wave input, many bits are allocated to a block including the spectrum, thereby making the entire signal pair. Noise characteristics can be dramatically improved. Generally, sudden Since the human hearing is extremely sensitive to signals having sharp spectral components, improving the signal-to-noise characteristics as described above merely improves the numerical values measured. It is also effective for improving the sound quality of hearing.
  • M independent real number data can be obtained by performing conversion using a time block consisting of M samples.
  • one block usually overlaps with the adjacent blocks by a predetermined number M1 of samplers, so that DFT or DCT is used.
  • M real data is quantized and encoded on average for (M-Ml) samples.
  • MDCT is used as a method of converting signals on the time axis into a spectrum
  • M independent real numbers are obtained from 2 M samples overlapping M blocks with the adjacent blocks. Data is obtained. Therefore, in this case, M average data is quantized and encoded for M samples on average.
  • the waveform signal obtained by performing the inverse transform in each block is added to the code obtained by using the MDCT as described above while causing the blocks to interfere with each other, so that the waveform signal is reproduced. Be composed.
  • quantization precision information which is information indicating a quantization step when performing quantization
  • normalization information which is information indicating a coefficient used to normalize each signal component
  • ID0 / IEC 11172-3: 1993 (E), 1993 describes a high-efficiency coding scheme in which the number of bits representing quantization accuracy information is set differently depending on the band. According to this, it is standardized that the number of bits representing the quantization accuracy information becomes smaller as the frequency band becomes higher.
  • FIG. 1 shows an example of a configuration of a conventional encoding apparatus 100 that encodes an audio signal by dividing a frequency band, for example.
  • An audio signal to be encoded is input to the band division unit 101, and is divided into, for example, four frequency band signals.
  • the band division unit 101 can perform band division using a filter such as the above-described QMF or PQF, and also performs spectrum conversion such as MDCT and obtains a spectrum obtained as a result. By grouping the vector signals for each band, band division can be performed.
  • each band (hereinafter, appropriately referred to as an encoding unit) when the audio signal is divided by the band division unit 101 is uniform or may not match the critical bandwidth or the like. It may be uniform. Also, in FIG. 1, the audio signal is divided into four encoding units, but the number of encoding units is not limited to this.
  • a signal decomposed into four coding units (hereinafter, each of the four coding units is referred to as a first to a fourth coding unit as appropriate) is used for a predetermined time block.
  • Each frame is supplied to the quantization accuracy determination unit 103. Further, the signals of the first to fourth encoding units are also supplied to normalization units 102 i to 102 4 , respectively.
  • the normalizers 102 2 i to 102 4 extract the signal having the largest absolute value from each signal component constituting each of the input first to fourth encoding cut signals.
  • the coefficient corresponding to the value is the normalization coefficient of the first to fourth coding units.
  • the normalization unit 1 0 2 t ⁇ 1 0 2 4 each signal Ingredients constituting the signal of the first to fourth encoding Yunitto is, first to fourth code Kayu - Tsu City of normal Normalized by the value corresponding to the conversion coefficient (Divided). Therefore, in this case, the normalized data obtained by normalization has a value in the range of 1.1 to 1.0.
  • the normalized data are output from the normalization unit 1 0 2 1 0 2 4 to the quantization unit 1 0 4 t ⁇ 1 0 4.
  • the normalization coefficients of the first to fourth encoding units are output to the multiplexers 105 from the normalization units 102 to 102.
  • Quantizers 104 to! 104 The normalizers 102 to t 102 supply the normalized data of the first to fourth encoding units, respectively, as well as the quantization.
  • the precision determination unit 103 also supplies quantization precision information for instructing a quantization step when quantizing the normalized data of the first to fourth encoding units. That is, based on the signals of the first to fourth encoding units from the band division unit 101, the quantization accuracy determination unit 103 receives the normalized data of the first to fourth encoding units. A quantization step for quantizing each is determined. Then, the quantization accuracy information of the first to fourth encoding units corresponding to the quantization step is output to the quantizers 104 i to 104 4 , respectively, and the multiplexers 105 are also output. Output.
  • quantizing the normalized data of the first to fourth encoding Yunitto is, corresponding to the quantization accuracy information of the first to fourth encoding Yunitto
  • the quantized coefficients of the first to fourth encoding units obtained by being quantized in the step are output to the multiplexer 105.
  • the quantization coefficients, quantization accuracy information, and normalization information of the first to fourth encoding units are encoded as necessary, and then multiplexed. Then, the encoded data obtained as a result is transmitted via a transmission path or recorded on a recording medium (not shown).
  • FIG. 2 shows an example of a configuration of a decoding device 120 that decodes encoded data output from the encoding device 100 having the above configuration.
  • coded data is input to a demultiplexer 121 and decoded, and the first to fourth codes are decoded.
  • quantization information of the quantization unit, quantization accuracy information, and normalization information are sent to the signal component constituent units 122 2 i to l 224 corresponding to the respective coding units. Supplied.
  • the quantization coefficient of the first encoding unit is inversely quantized in a quantization step corresponding to the quantization accuracy information of the first encoding unit, whereby This is the normalized data of the first encoding unit. Further, the signal component configuration unit 122 i multiplies the normalized data of the first encoding unit by a value corresponding to the normalization information of the first encoding unit. The signal of the first encoding unit is decoded and output to band combining section 123.
  • Similar processing is also the signal component constructing unit 1 2 2 2 2 to 1 2 2 4 is carried out, thereby, is output first to fourth been decoded signal coding Yunitto the band combining section 1 2 3 .
  • the band synthesizing unit 123 the signals of the first to fourth encoding units are band-synthesized, whereby the original audio signal is restored.
  • the encoded data supplied (transmitted) from the encoding device 100 in FIG. 1 to the decoding device 120 in FIG. 2 includes quantization accuracy information and is used in the decoding device.
  • the auditory model can be set arbitrarily.
  • the encoding device can freely set the quantization step for each encoding unit, and the decoding device can be changed in accordance with the improvement of the arithmetic capability of the encoding device and the refinement of the auditory model.
  • the decoding device determines the quantization accuracy information from the normalization information, for example. Since the relationship between the quantization accuracy information is determined, there is a problem that it will be difficult to introduce quantization accuracy control based on a more advanced auditory model in the future. Also, if there is a range in the compression rate to be realized, it is necessary to determine the relationship between the normalization information and the quantization accuracy information for each compression rate.
  • the present invention has been proposed in view of such a conventional situation, and allows an encoding device to freely set a quantization step, and an audio signal or the like to be directly encoded.
  • Codes of sub-information such as quantization accuracy information and normalization information which are not the target of direct encoding and encoding information (encoding apparatus that can improve the efficiency of decoding and its method, decoding apparatus, and
  • An object of the present invention is to provide a method, an encoding program and a decoding program.
  • An encoding device is an encoding device that encodes main information that is directly subjected to encoding of audio and video signals or video signals and sub-information that is not directly subjected to encoding.
  • Rough shape calculating means for calculating rough shape information
  • rough shape coding means for quantizing and coding the rough shape information
  • error calculating means for calculating a quantization error
  • losing information on the quantization error Error coding means for performing lossless coding without loss, the rough information coded by the rough coding means and the quantization error coded by the error coding means. Is output.
  • Such an encoding device when encoding the sub-information of the audio and / or video signal, quantizes and encodes the outline information of the sub-information, and also eliminates the quantization error without losing the information. Encode losslessly.
  • the encoding method according to the present invention is an encoding method for encoding main information, which is a direct encoding target of an audio and / or video signal, and sub-information which is not a direct encoding target, A rough calculation step of calculating the rough information of the sub information, a rough coding step of quantizing and coding the rough information, an error calculating step of calculating a quantization error, and the quantization error
  • the decoding device converts the encoded audio signal and the ⁇ or video signal.
  • the encoding device encodes the outline information about the sub-information that is not directly to be encoded, and the quantization error in encoding the outline information loses the information.
  • the information processing apparatus includes a general shape decoding unit for decoding shape information, and a synthesizing unit for synthesizing the decoded quantization error and the general shape information.
  • Such a decoding device when encoding the sub-information of the audio and Z or video signals in the encoding device, quantizes and encodes the outline information of the sub-information, and eliminates the quantization error without losing the information.
  • the lossless encoded sub information is input, and the quantization error of the sub information and the outline information are decoded and combined.
  • the decoding method in the decoding method for decoding an encoded audio signal and a video signal or a video signal, outline information about sub-information that is not directly encoded by an encoding device is encoded.
  • This is a decoding method for inputting and decoding the outline information and the quantization error, which are encoded without loss of the quantization error when encoding the outline information, without losing the information.
  • An error decoding step of decoding the quantization error of the sub information a rough decoding step of decoding the rough information of the sub information, and a synthesis of combining the decoded quantization error and the rough information. And a process.
  • the encoding device when the encoding device encodes the sub information of the audio and / or video signal, the outline information of the sub information is quantized and encoded, and the quantization error is reduced without losing the information. Lossless encoded sub-information is input, and the quantization error of the sub-information and the outline information are decoded and combined.
  • the encoding program according to the present invention is an encoding program for encoding main information that is directly encoded with an audio and / or video signal and sub-information that is not directly encoded with audio data.
  • the rough information encoded in the rough encoding step and the quantization error encoded in the error encoding step are provided. Is output.
  • Such an encoding program encodes audio and / or video signal side information.
  • the outline information of the sub information is quantized and encoded, and the quantization error is encoded losslessly without losing information.
  • the decoding program according to the present invention is a decoding program for decoding an encoded audio signal and / or video signal, wherein the outline information about the sub-information that is not directly encoded by the encoding device is encoded.
  • Such a decoding program quantizes and encodes the rough information of the sub-information when encoding the sub-information of the audio and Z or video signals in the encoding device, and eliminates the quantization error without losing the information.
  • the losslessly encoded sub information is input, and the quantization error of the sub information and the outline information are decoded and combined.
  • FIG. 1 is a diagram illustrating a configuration of a conventional encoding device.
  • FIG. 2 is a diagram illustrating a configuration of a conventional decoding device.
  • FIG. 3 is a diagram illustrating the configuration of the encoding device according to the present embodiment.
  • FIG. 4 is a diagram illustrating a conceptual configuration of a quantization accuracy information encoding unit in the encoding device.
  • - Figure 5 is a flowchart explaining the operation of the outline extraction unit of the quantization accuracy information encoding unit.
  • FIG. 6 is a flowchart for explaining the operation of the external quantization unit of the quantization accuracy information encoding unit.
  • FIG. 7 is a flowchart for explaining the operation of the residual signal calculation unit of the quantization accuracy information encoding unit.
  • FIG. 8 is a flowchart for explaining the operation in the residual signal encoding unit of the quantization accuracy information encoding unit.
  • FIG. 9 is a diagram illustrating a specific example of compression of quantization accuracy information in the quantization accuracy information encoding unit.
  • FIGS. 1OA to 1OC are diagrams illustrating a specific example of compression of quantization accuracy information in the same quantization accuracy information encoding unit, and FIG. 10A shows quantization accuracy information and its average value.
  • FIG. 10B shows the quantization accuracy information and the quantization outline vector, and
  • FIG. 10C shows the quantization accuracy information residual signal.
  • FIG. 11 is a view for explaining an example of a variable-length code string table for coding the quantization accuracy information residual signal.
  • FIG. 12 is a diagram illustrating a specific example of compression of the normalization information in the normalization information encoding unit.
  • FIGS. 13A to 13C are diagrams illustrating a specific example of compression of the normalized information in the normalized information encoding unit, and FIG. 13A illustrates the normalized information and its average value, FIG. 13B shows the normalized information and the quantization outline vector, and FIG. 13C shows the normalized information residual signal.
  • FIG. 14 is a diagram illustrating an example of a variable-length code string table for encoding a normalized information residual signal.
  • FIG. 15 is a diagram illustrating an example of an encoding device having an encoding unit that performs encoding in another encoding format.
  • FIG. 16 is a diagram illustrating the configuration of the decoding device according to the present embodiment.
  • FIG. 17 is a diagram illustrating a conceptual configuration of a quantization accuracy information decoding unit in the decoding device.
  • BEST MODE FOR CARRYING OUT THE INVENTION the present invention is applied to an encoding device and a decoding device that transmit an audio signal or the like after performing high-efficiency encoding and receiving the decoded signal on the decoding side. It is a thing. In the following, description will be made assuming that the audio signal is encoded with high efficiency. However, the present invention is not limited to this, and may be a video signal, for example.
  • FIG. 3 shows a configuration of an encoding device 10 according to the present embodiment.
  • an audio signal to be encoded is input to a band division unit 11, and is divided into, for example, signals in four frequency bands.
  • the band division unit 11 can perform band division using a filter such as a QMF (Quadrature Miller Filter) or a PQF (Polyphase Quadrature Filter). It is also possible to perform band division by performing a spectrum conversion such as a Direc- ture Coin- sine Transformation (Ion), and grouping the resulting spectrum signals by band.
  • a filter such as a QMF (Quadrature Miller Filter) or a PQF (Polyphase Quadrature Filter). It is also possible to perform band division by performing a spectrum conversion such as a Direc- ture Coin- sine Transformation (Ion), and grouping the resulting spectrum signals by band.
  • a filter such as a QMF (Quadrature Miller Filter) or a PQF (Polyphase Quadrature Filter).
  • a spectrum conversion such as a Direc- ture Coin- sine Transformation (Ion)
  • each band (hereinafter, referred to as an encoding unit as appropriate) when the audio signal is divided by the band division unit 11 may be uniform or may be made non-uniform so as to match the critical bandwidth. You may. Also, the audio signal is divided into four encoding units, but the number of encoding units is not limited to this.
  • the signal decomposed into four coding units (hereinafter, as appropriate, the four coding units are referred to as first to fourth coding units) is converted into a quantized signal for each predetermined time block (frame). It is supplied to the conversion accuracy determination unit 13. Further, the signal of the first to fourth encoding units are also normalized unit 1 2 to 1 2 4, are supplied.
  • each signal Ingredients constituting the signal of the first to fourth encoding Yuni' preparative corresponds to the normalization coefficients of the first to fourth encoding Yunitto It is normalized by dividing each value. Therefore, in this case, the normalized data obtained by the normalization has a value in the range of 1.1 to 1.0.
  • the normalized data is their respective output to the quantization unit 1 4 t ⁇ 1 4 4 from the normalization unit 1 2 i ⁇ 1 2 4. Also, the normalization coefficients of the first to fourth encoding units are 2 i to l 2 4 is outputted to the normalization information encoding unit 1 6 from each, after being encoded by a method described later, are output to the multiplexer 1 7.
  • the quantizer 1 4 to 1 4 4, normalizing unit 1 2 t ⁇ 1 2,! Each of them supplies the normalized data of the first to fourth encoding units, and also quantizes the normalized data of the first to fourth encoding units from the quantization accuracy determination unit 13. Quantization accuracy information for instructing a quantization step at the time of performing is also supplied.
  • the quantization accuracy determination unit 13 sets each of the normalized data of the first to fourth encoding units. A quantization step for quantizing the data is determined. Then, the quantization step information of the first to fourth encoding units corresponding to the quantization Sutetsu flop, and outputs each to the quantization unit 1 4 t ⁇ 1 4 4, quantization accuracy information encoding unit Also output to 15.
  • the quantization accuracy information encoding unit 15 encodes the quantization accuracy information as described later, and outputs the encoded information to the multiplexer 17.
  • the quantization coefficients of the first to fourth coding units obtained as a result are output to the multiplexer 17.
  • the multiplexer 17 encodes the quantization coefficients of the first to fourth encoding units, and encodes the quantization accuracy information encoded by the quantization accuracy information encoding unit 15 and the normalized information. It is multiplexed with the encoded normalization information in section 16.
  • the encoded data obtained as the output of the multiplexer 17 is transmitted via a transmission path or recorded on a recording medium (not shown).
  • encoding apparatus 10 provides audio signal as main information to be directly encoded and quantization accuracy information as sub-information not to be directly encoded. And normalization information are separately encoded.
  • FIG. 4 shows a conceptual configuration of the above-described quantization accuracy information encoding unit 15. Note that although the number of coding units in FIG. 3 was four, the following description will be made assuming that the number of coding units is 12.
  • the schematic shape extraction unit 20 Quantization accuracy information for each quantization unit is input, its outline is extracted, and supplied to the outline encoder 21.
  • the rough shape coding unit 21 quantizes and codes the rough shape information of the extracted quantization accuracy information. Further, the rough shape coding unit 21 supplies the coded rough shape information to the residual signal calculation unit 22 and also to the multiplexer 17 of FIG. 3 as quantization accuracy information.
  • the residual signal measuring unit 22 calculates the quantization error in the approximate encoding unit 21 and supplies the result to the residual signal encoding unit 23.
  • the residual signal encoding unit 23 encodes the quantization error supplied from the residual signal meter unit 22 and supplies the same to the multiplexer 17 of FIG. 3 as quantization accuracy information.
  • FIG. 5 shows the processing in the schematic shape extraction unit 20 of FIG.
  • i is the value of the counter
  • IDWL is the quantization accuracy information
  • shape is the representative value of the quantization accuracy information
  • M is the number of unit quantization units that combine the quantization accuracy information when calculating the representative value.
  • the value of M may be determined as long as matching between the encoding side and the decoding side is obtained, and may be a fixed value or a variable value. In Fig. 5, fixed values are used as an example.
  • step S1 the value of the counter i is initialized to zero.
  • step S2 a representative value of the quantization accuracy information is calculated for each unit quantization unit number M.
  • the representative value a maximum value, an average value, and the like are generally used.
  • step S3 the value of the counter i is increased by one.
  • step S4 it is determined whether or not the value of M * i is less than 12 which is the total number of quantization cuts. If the value of M * i is less than 12, the process returns to step S2 and continues. If the value of M * i is equal to or greater than 12 in step S4, the process ends.
  • the outline of the quantization accuracy information extracted as described above is the outline code shown in Fig. 4. Quantization and encoding are performed in the transform unit 21.
  • FIG. 6 shows a flowchart of the quantization and encoding of the outline of the quantization accuracy information.
  • i is the value of the counter
  • shape is the approximate vector
  • qshape (i) is the quantized approximate vector at the i-th index
  • err is the approximate vector and the quantized approximate vector.
  • Error (distance) min is the minimum value of the error
  • index is the index of the approximate vector quantization ilft
  • CB size is the codebook size (the number of indexes) of the quantization approximate vector, respectively. ing.
  • step S11 the minimum error value min is initialized as the distance between the approximate vector shae and the quantized approximate vector qshape (0), and the index of the quantized approximate vector inde X Is initialized to 0.
  • the quantized approximate shape vector qshape is learned and created in advance and stored as a codebook.
  • step S12 the value of the force counter i is initialized to 1, and in step S13, the quantization error of the approximate vector shape and the quantized approximate vector qshape (i) is calculated, and rr is determined. calculate.
  • step SI4 it is determined whether or not the quantization error err is smaller than the minimum error value min. If the quantization error e rr is less than the minimum error value m i ⁇ , the process proceeds to step S15, where the quantization error e r r is substituted for the minimum quantization error value m in, and i is substituted for the quantization value index e ind e X. In step S14, if the quantization error err is not less than the minimum error value min, the process proceeds to step S16.
  • step S16 the value of the power counter i is incremented by one, and in step S17, it is determined whether or not the value of the power counter i is smaller than the codebook size CBsize. If the value of the counter i is smaller than the code book size C B size, the process returns to step S 13 to continue. In step S17, if the value of the counter i is not smaller than the code puck size CB size, then in step S18, the quantization value index index is encoded, and the processing ends.
  • the approximate encoding unit 21 shown in FIG. 4 calculates the error (distance) between the quantized approximate vector and the approximate vector in each index of the codepook for each index, and the error is calculated as follows. Encode the smallest index.
  • the residual signal calculator 22 shown in FIG. 4 calculates the residual signal of the quantization accuracy information as shown in FIG.
  • I DWL is quantization accuracy information
  • qshape is a quantization approximate vector
  • index is an index of the quantization approximate vector
  • r IDWL is the quantization accuracy.
  • the information residual signal, M represents the number of unit quantization units that combine the quantization accuracy information.
  • step S21 the value of the counter i is initialized to 0, and in step S22, the value of the counter j is initialized to 0.
  • step S23 a quantization accuracy information residual signal is calculated.
  • the residual signal of the quantization accuracy information is obtained by subtracting the value of the quantized approximate vector corresponding to the index coded by the approximate encoder 21 shown in FIG. 4 from the quantization accuracy information IDWL.
  • step S24 the value of the counter; j is increased by one.
  • step S25 it is determined whether the value of j is less than M. If the value of j is less than M, the process returns to step S23 to calculate the value of the quantized information residual signal. In step S25, if the value of j is not less than M, the process proceeds to step S26, and the value of the counter i is increased by one.
  • step S27 it is determined whether or not the value of M * i is less than 12 which is the total number of quantization units. If the value of M * i is less than 12, the process returns to step S22 and continues. In step S27, if the value of M * i is not less than 12, the process ends.
  • the quantization accuracy information residual signal calculated in this way is encoded in the residual signal encoding unit 23 shown in FIG. 4 as shown in FIG.
  • i represents a power counter value
  • r IDWL (i) represents a quantization accuracy information residual signal.
  • step S31 the value of the counter i is initialized to 0, and then, in step S32, r IDWL (i) is encoded. At this time, if a variable-length code sequence table is prepared and coding is performed using the table, coding can be performed efficiently. Subsequently, in step S33, the value of the counter i is incremented by 1, and in step S34, it is determined whether or not the value of the counter i is less than 12 which is the total number of quantization units. If the value of the counter i is less than 12 which is the total number of quantization units, Return to step S32 and continue the processing. In step S34, if the value of the counter i is not less than 12 which is the total number of quantization units, the process ends.
  • the quantization accuracy information can be efficiently compressed.
  • the number of unit quantization units M that combine ii-quantization accuracy information is set to 3 ', and the quantization accuracy information is grouped by three, and the average value is obtained as a representative value.
  • IDWL unit quantization accuracy information
  • the quantization accuracy information is coded with 3 bits.
  • quantization accuracy information for each quantization unit (QU) is given as shown in FIG. 10A. Since the quantization precision information of the quantization unit numbers 0 to 2 is 7, 7, and 6, respectively, the representative value is 7, which is the average value. When this is obtained for all quantization precision information, the approximate vector is a four-dimensional vector (7, 4, 2, 1, 1).
  • the quantization accuracy information residual signal (rIDWL) is obtained from the quantization outline vector and the quantization accuracy information. That is, the quantization accuracy information residual signal is obtained by subtracting the value of the quantization outline vector from the quantization accuracy information.
  • the residual signal of the quantization accuracy information is as shown in FIG. 10C.
  • the number of bits is 19 bits. Since the index of the quantized outline vector shown in Fig. 9 is represented by 4 bits, the number of bits of the quantized precision information after encoding is a total of 23 bits. In the case of non-compression, 36 bits are required, and it is possible to compress 13 bits by using the method of this embodiment. Become.
  • variable length coding may be performed on the difference value in the frequency direction of the power quantization accuracy information residual signal obtained by performing the variable length coding on the quantization accuracy information residual signal. That is, the quantization accuracy information residual signal and the normalized information residual signal described later often have similar values between adjacent quantization units, between adjacent channels, and between adjacent times.
  • the difference value is calculated, the probability of occurrence of the difference is greatly biased, and the probability particularly near the difference value 0 increases. Therefore, the number of coded bits can be reduced by assigning a short code to a difference value having a high appearance ratio.
  • variable length coding various methods other than using variable length coding can be used. For example, since the quantization accuracy information residual signal often has a large value in the low frequency range and a small value in the high frequency range, the value in the low frequency range is reduced or the value in the high frequency range is reduced. By assigning weights that are easy to use, the dynamic range in the entire band can be narrowed, and thus, encoding with a small number of bits can be performed. In addition, since the information distribution range of the quantization accuracy information residual signal is often narrow in a quantization unit over a certain band, the boundary quantization unit number should be encoded into ⁇ IJ. Thus, information above the boundary band can be encoded with a small number of bits.
  • the gain and the shape may be separately specified. This makes it possible to encode more efficiently with a small-sized code book.
  • quantization accuracy information has been described above, but compression can be performed by the same method in the case of normalization information.
  • the normalization information encoding unit 16 shown in FIG. 3 extracts an outline of the normalization information for each quantization unit, and obtains an outline of the extracted normalization information.
  • the shape is quantized and encoded and output to the multiplexer 17 in FIG.
  • the quantization error is encoded and output to the multiplexer 17 of FIG. 3 as normalization information.
  • the unit quantization unit that summarizes the normalization information (IDSF)
  • IDSF unit quantization unit that summarizes the normalization information
  • the number M is set to 3
  • the normalized information is grouped by three, and the average value is calculated as a representative value to obtain the shape of the normalized information.
  • the description will be made assuming that the normalization information is encoded with 6 bits.
  • Fig. 13A For example, suppose that the normalization information for each quantization unit (QU) is given as shown in Fig. 13A.
  • the normalized information of the quantization unit numbers 0 to 2 is 54, 53, and 5, respectively.
  • the representative value is 53, which is the average value.
  • the approximate vector is a four-dimensional vector (53, 41, 41, 4).
  • the error (distance) between this approximate vector and the quantized approximate vector (qs li ape) is calculated, and the quantized approximate vector of index 2 is calculated.
  • the quantization accuracy information (IDSF) and the quantization outline vector (qshape) are as shown in Fig. 13B.
  • a normalized information residual signal (rIDSF) is obtained. That is, a normalized information residual signal is obtained by subtracting the value of the quantized approximate vector from the normalized information.
  • This normalized information residual signal is as shown in FIG. 13C.
  • the number of bits is 33 bits. Since the index of the quantization outline vector shown in FIG. 9 is represented by 4 bits, the number of coding bits of the quantization accuracy information is 37 bits in total. In the case of non-compression, 72 bits are required, so that the method of the present embodiment enables 35-bit compression.
  • sub-information such as quantization accuracy information and regular information can be efficiently compressed without losing information.
  • the quantization accuracy information residual signal often does not fall within the range of 11 to +1, It can be assumed that encoding the quantization accuracy information as usual can reduce the number of bits.
  • an encoding unit for encoding the sub-information by another encoding method is provided, and the amount of code by the encoding method of the present embodiment and the other encoding method It is realistic to compare the code amount by the expression in the comparison unit and select the coding method with a small code amount in the selection unit.
  • the encoding device compares the main information encoding unit 50, the first sub information encoding unit 51, and the second sub information encoding unit 52 with each other.
  • a comparison unit 53 as a means and a switch 54 as a selection means are provided.
  • the main information encoding unit 5 0, band division unit 1 1 shown in FIG. 3, the normalization unit 1 2 to 1 2 4, quantization accuracy determining unit 1 3, quantizer 1 4 -1 4 and the multiplexer Equivalent to 17.
  • the first sub-information encoding unit 51 encodes sub-information such as quantization accuracy information and normalization information by a method according to the present embodiment, that is, extracts and encodes an outline
  • the encoding unit 52 encodes the sub information as usual.
  • the comparing section 53 compares the code amount in the first sub-information encoding section 51 with the code amount in the second sub-information encoding section 52, and selects the switch with the smaller code amount. Control. As a result, the selected encoded sub-information is supplied to the main information encoding unit 50.
  • FIG. 16 shows the configuration of decoding apparatus 30 according to the present embodiment.
  • coded data is input to a demultiplexer 31 and decoded, and is separated into quantization coefficients, quantization accuracy information, and normalization information of the first to fourth coding units.
  • Quantization coefficient of the first to fourth encoding units are supplied to signal component constituting part 3 4 i to 3 4 4 corresponding to each of the coding units.
  • the quantization accuracy information and the normalization information are decoded by the quantization accuracy information decoding unit 32 and the normalization information decoding unit 33, respectively, the signal component configuration unit 3 corresponding to each coding unit is decoded. 4 i to 3 4 4 are supplied.
  • the quantization coefficient of the first encoding unit is inversely quantized in a quantization step corresponding to the quantization accuracy information of the first encoding unit, whereby It is the normalized data of the coding unit of 1. Further, the signal component configuration unit 34 multiplies the data to be normalized of the first encoding unit by a value corresponding to the normalization information of the first encoding unit. The unit signal is decoded and output to band combining section 35.
  • Similar processing is also the signal component constructing unit 3 4 2-3 4 4 is performed, thereby, the The signals of the second to fourth encoding units are decoded and output to band combining section 35.
  • the band synthesizing unit 35 the signals of the first to fourth coding units are band-synthesized, whereby the original audio signal is restored.
  • FIG. 17 shows a conceptual configuration of the quantization accuracy information decoding unit 32 described above.
  • the residual signal decoding unit 40 decodes the input quantization accuracy information residual signal and supplies it to the synthesizing unit 42.
  • the approximate decoding unit 41 decodes the approximate information of the quantization accuracy information based on the input index and supplies the decoded information to the synthesis unit 42.
  • the synthesizing unit 42 synthesizes the outline information and the quantization accuracy information residual signal, and as quantization accuracy information, a signal component configuration unit 34 corresponding to each quantization unit shown in FIG. Supply i ⁇ 3444.
  • the sub-information such as the quantization accuracy information and the normalization information is quantized in its outline, and the quantization error (residual signal) is variable-length coded. It is possible to reduce the number of bits used for encoding the sub information. Therefore, the reduced number of bits can be distributed to the encoding of main information such as an audio signal, and the quality of encoded sound can be improved.
  • the representative value obtained for each unit quantization unit number is used as the outline information, but is not limited to this.
  • LPC envelopes and LSP envelopes obtained from linear prediction coefficients or cepstrum envelopes obtained by converting the logarithm of the power spectrum to the time axis can be used as the outline information. The following is a brief explanation.
  • the current value X (t) can be linearly predicted from past values by finding ⁇ (i) (1 ⁇ ⁇ ⁇ p) that minimizes the prediction error e (t). Can be. That is, assuming that a linear prediction value of X (t) is x '(t), x' (t) is represented by the following equation (2). Further, the prediction error e (t) at this time is expressed as in equation (3).
  • This (i) is called a linear prediction coefficient (L P C).
  • This L PC is obtained by first obtaining an autocorrelation function r ( ⁇ ) of X (t) and solving a simultaneous linear equation with respect to this r ( ⁇ ).
  • the normalization coefficient is the maximum value of the absolute value of the spectrum in each quantization unit, this normalization coefficient or the square of the normalization coefficient is defined as the maximum value of the power spectrum value. Can be considered. Since the inverse Fourier transform value of the power spectrum is an autocorrelation function, the linear prediction coefficient can be obtained from the normalized coefficient.
  • L S L line spectrum pair obtained from the linear prediction coefficient
  • the cepstrum is obtained by taking the logarithmic value of the power spectrum and performing an inverse Fourier transform. Therefore, the cepstrum is obtained from the normalization coefficient by taking the normalization coefficient or the logarithmic value of the square of the normalization coefficient and performing inverse Fourier transform, and using the lower order, the normalization coefficient is obtained. Can be expressed in outline.
  • an outline of the quantization accuracy information can be similarly expressed by LPC, LSP, and cepstrum.
  • INDUSTRIAL APPLICABILITY According to the present invention as described above, with respect to sub-information such as quantization accuracy information and normalization information, an outline thereof is quantized, and a quantization error (residual signal) is variable-length.

Description

明細書 符号化装置及び方法、 復号装置及び方法、 並びにプログラム 技術分野 本発明は、 符号化装置及び方法、 復号装置及び方法、 並びに符号化プログラム 及び復号プログラムに関し、 特に、 音響信号等のディジタルデータを高能率符号 化して、 伝送又は記録媒体に記録し、 復号側でこれを受信又は再生して復号する 符号化装置及び方法、 復号装置及び方法、 並びに符号化プログラム及び復号プロ グラムに関する。 背景技術 従来より、 ディジタルオーディォ信号或いは音声信号等を高能率符号化する手 法としては、 例えば帯域分割符号化 (サブバンドコーディング) 等に代表される 非プロック化周波数帯域分割方式や、 変換符号化等に代表されるプロック化周波 数帯域分割方式などが知られている。
非ブロック化周波数帯域分割方式では、 時間軸上のオーディオ信号を、 プロッ ク化せずに複数の周波数帯域に分割して符号化を行う。 また、 ブロック化周波数 帯域分割方式では、 時間軸上の信号を周波数軸上の信号に変換 (スベタ トル変 換) して複数の周波数帯域に分割して、 すなわち、 スペク トル変換して得られる 係数を所定の周波数帯域毎にまとめて、 各帯域毎に符号化を行う。
また、 符号化効率をより向上させる手法として、 上述の非プロック化周波数帯 域分割方式とプロック化周波数帯域分割方式とを組み合わせた高能率符号化の手 法も提案されている。 この手法によれば、 例えば、 帯域分割符号化で帯域分割を 行った後、 各帯域毎の信号を周波数軸上の信号にスペク トル変換し、 このスぺク トル変換された各帯域毎に符号化が行われる。
ここで、 周波数帯域分割を行う際には、 処理が簡単であり、 且つ、 折り返し歪 みが消去されることから、 例えば、 QMF (Quadrature Mirror Filter) が用い られることが多い。 なお、 QMFによる周波数帯域分割の詳細については、 . 「19 76R. E. Crochiere, Digital coding of speech in subbands, Bell Syst. Tech. J. Vol.55, No.8 1976」 等に記載されている。
また、 帯域分割を行う手法としてこの他に、 例えば、 等バンド幅のフィルタ分 割手法である P Q F (Polyphase Quadrature l lter) 等がある。 この P Q Fの詳 糸田 ίこつレヽて(ま、 「iCASSP 83 BOSTON, Polyphase Quadrature filters - A new s ubband coding technique, Joseph H. RothweilerJ 等こ c載されてレヽる。
一方、 上述したスペク トル変換としては、 例えば、 入力オーディオ信号を所定 単位時間のフレームでブロック化し、 ブロック毎に離散フーリエ変換 (Discrete Fourier Transf ormation:DFT) 、 離散コサイン変換 (Discrete Cosine Transfo rmation:DCT) 、 改良 DC T変換 (Modified Discrete Cosine Transformation:! DCT) 等を行うことで時間軸信号を周波数軸信号に変換するものがある。
なお、 MDCTについては、 「ICASSP 1987, Subband/Transf orm Coding Usin g Filter Bank Designs Based on Time Domain Aliasing Cancellation, J. P. Pr incen, A. B. Bradley, Univ. of Surrey Royal Melbourne Inst, of Tech.」 等に、 その詳細が記載されている。
このようにフィルタやスぺク トル変換によって得られる帯域毎の信号を量子化 , することにより、 量子化雑音が発生する帯域を制御することができるため、 マス キング効果等の性質を利用して聴覚的により高能率な符号化を行うことができる。 また、 量子化を行う前に各帯域毎の信号成分を、 例えばその帯域における信号成 分の絶対値の最大値等で正規化するようにすれば、 さらに高能率な符号化を行う ことができる。
帯域分割を行う際の各周波数帯域の幅は、 例えば、 人間の聴覚特性を考慮して 決定される。 すなわち一般的には、 例えば、 臨界帯域 (ク リティカルバンド) と 呼ばれている、 高域ほど幅が広くなるような帯域幅で、 オーディオ信号を複数 (例えば 32バンドなど) の帯域に分割することがある。
また、 各帯域毎のデータを符号化する際には、 各帯域毎に所定のビット配分、 或いは各帯域毎に適応的なビッ ト割当 (ビッ トアロケーション) が行われる。 す なわち、 例えば、 MDCT処理されて得られた係数データをビットァロケーショ ンによって符号化する際には、 プロック毎の信号を MD C T処理して得られる各 帯域の MDCT係数データに対して、 適応的にビット数が割り当てられて符号化 が行われる。
ビット割当手法としては、 例えば、 各帯域毎の信号の大きさに基づいてビッ ト 割当を行う手法 (以下、 適宜第 1のビッ ト割 1'手法という。 ) や、 聴覚マスキン グを利用することで各帯域毎に必要な信号対雑音比を得て固定的なビッド割当を 行う手法 (以下、 適宜第 2のビット割当手法という。 ) 等が知られている。
なお、 第 1のビット割当手法については、 例えば、 Adaptive Transform Cod ing of Speech Signals, R. Zelinski and P. Noll, IEEE Transactions oi Accou sties, Speech and Signal Processing, vol. ASSP-25, No.4, August 1977」 等に その詳細が記載されている。
また、 第 2のビット割当手法については、 例えば、 「ICASSP 1980, The criti cal band coder digital encoding of the perceptual requirements of the au ditory system, M. A. Kransner MIT」 等にその詳細が記載されている。
第 1のビット割当手法によれば、 量子化雑音スペク トルが平坦となり、 雑音ェ ネルギが最小となる。 しかしながら、 聴感覚的にはマスキング効果が利用されて いないために、 実際の聴感上の雑音感は最適にはならない。 また、 第 2のビッ ト 割当手法では、 ある周波数にエネルギーが集中する場合、 例えば、 サイン波等を 入力した場合であっても、 ビット割当が固定的であるために、 特性値がそれほど 良い値とはならない。
そこで、 ビット割当に使用できる全ビットを、 各小ブロック毎にあらかじめ定 められた固定ビット割当パターン分と、 各プロックの信号の大きさに依存したビ ット配分を行う分とに分割して使用し、 その分割比を入力信号に関係する信号に 依存させる、 すなわち、 例えば、 その信号のスぺク トルが滑らかなほど固定ビッ ト割当パターン分への分割比率を大きくする高能率符号化装置が提案されている。 この方法によれば、 サイン波入力のように特定のスぺク トルにエネルギーが集 中する場合には、 そのスぺク トルを含むプロックに多くのビットが割り当てられ、 これにより全体の信号対雑音特性を飛躍的に改善することができる。 一般に、 急 峻なスぺク トル成分を持つ信号に対して人間の聴覚は極めて敏感であるため、 上 述のようにして信号対雑音特性を改善することは、 単に測定上の数値を向上させ るばかりでなく、 聴感上の音質を改善するのにも有効である。
ビット割当の方法としては、 この他にも数多くの方法が提案されており、 さら に聴覚に関するモデルが精緻化され、 符号化装置の能力が向上すれば、 聴覚的な 観点からより高能率な符号化が可能となる。
' 波形信号をスぺク トルに変換する方法として D F Tや D C Tを使用した場合に は、 M個のサンプルからなる時間プロックで変換を行うと、 M個の独立な実数デ ータが得られる。 しかしながら通常は、 時間ブロック (フレーム) 間の接続歪み を軽減するために、 1つのプロックは両隣のプロックとそれぞれ所定の数 M 1個 のサンプノレずつオーバーラップさせて構成されるので、 D F Tや D C Tを利用し た符号化方法では、 平均して (M— M l ) 個のサンプルに対して M個の実数デー タを量子化して符号化することになる。
また、 時間軸上の信号をスぺク トルに変換する方法として M D C Tを使用した 場合には、 両隣のプロックと M個ずつオーバーラップさせた 2 M個のサンプルか ら、 独立な M個の実数データが得られる。 従ってこの場合には、 平均して M個の サンプルに対して M個の実数データを量子化して符号化することになる。 この場 合、 復号装置においては、 上述のようにして M D C Tを用いて得られる符号から、 各プロックにおいて逆変換を施して得られる波形要素を互いに干渉させながら加 え合わせることにより、 波形信号が再構成される。
一般に、 変換のための時間プロック (フレーム) を長くすることによって、 ス ぺク トルの周波数分解能が高まり、 特定のスぺク トル成分にエネルギーが集中す る。 従って、 両隣のプロックと半分ずつオーバーラップさせて長いプロック長で 変換を行い、 得られたスぺク トル信号の個数が元の時間サンプルの個数に対して 増加しない M D C Tを使用する場合には、 D F Tや D C Tを使用した場合よりも さらに効率のよい符号化を行うことが可能となる。 また、 隣接するプロック同士 に充分長いオーバーラップを持たせることによって、 波形信号のプロック間歪み を軽減することもできる。
実際の符号列を構成するに際しては、 まず正規化及び量子化が行われる帯域毎 に、 量子化を行うときの量子化ステップを表す情報である量子化精度情報と各信 号成分を正規化するのに用いた係数を表す情報である正規化情報とを所定のビッ ト数で符号化し、 次に正規化及び量子化されたスぺク トル信号を符号化する。 ここで、 例えば、 「ID0/IEC 11172-3 : 1993 (E) , 1993」 には、 帯域によって量子 化精度情報を表すビッ ト数が異なるように設定された高能率符号化方式が記述さ れており、 これによれば、 高域の帯域ほど量子化精度情報を表すビッ ト数が小さ くなるように規格化されている。
図 1に、 例えばオーディオ信号を周波数帯域分割して符号化する従来の符号化 装置 1 0 0の構成の一例を示す。 符号化すべきオーディオ信号は、 帯域分割部 1 0 1に入力され、 例えば、 4つの周波数帯域の信号に帯域分割される。
ここで、 帯域分割部 1 0 1では、 上述した Q M F又は P Q F等のフィルタを用 いて帯域分割を行うようにすることもでき、 また、 M D C T等のスペク トル変換 を行い、 その結果得られるスぺク トル信号を帯域毎にグループ化することにより、 帯域分割を行うようにすることもできる。
なお、 帯域分割部 1 0 1でオーディオ信号を帯域分割するときの各帯域 (以下、 適宜、 符号化ユニットという。 ) の幅は、 均一であっても、 また臨界帯域幅等に 合わせるように不均一にしてもよい。 また、 図 1において、 オーディオ信号は、 4つの符号化ュニットに分割されるようになされているが、 符号化ュニットの数 は、 これに限定されるものではない。
4つの符号化ユニット (以下、 適宜、 4つの符号化ユニットそれぞれを、 第 1 〜第 4の符号化ユニッ トという。 ) に分解された信号は、 所定の時間プロック
(フレーム) 毎に、 量子化精度決定部 1 0 3に供給される。 さらに、 第 1〜第 4 の符号化ユニットの信号は、 正規化部 1 0 2 i〜 1 0 2 4にも、 それぞれ供給され る。
正規化部 1 0 2 i〜 l 0 2 4は、 入力された第 1〜第 4の符号化ュ-ッ トの信号 それぞれを構成する各信号成分から絶対値が最大のものを抽出し、 この値に対応 する係数を第 1〜第 4の符号化ユニットの正規化係数とする。 そして、 正規化部 1 0 2 t〜 1 0 2 4では、 第 1〜第 4の符号化ュニットの信号を構成する各信号成 分が、 第 1〜第 4の符号化ュ-ットの正規化係数に対応する値でそれぞれ正規化 される (除算される) 。 従って、 この場合、 正規化により得られる被正規化デー タは、 一 1 . 0〜 1 . 0の範囲の値となる。
被正規化データは、 正規化部 1 0 2 1 0 2 4から量子化部 1 0 4 t〜 1 0 4 にそれぞれ出力される。 また、 第 1〜第 4の符号化ユニッ トの正規化係数は、 正 規化部 1 0 2 〜 1 0 2 .,それぞれからマルチプレクサ 1 0 5に出力される。
量子化部 1 0 4 !〜 1 0 4 こは、 正規化部 1 0 2 t〜 1 0 2 それぞれから第 1 〜第 4の符号化ュニッ 卜の被正規化データが供給されるほか、 量子化精度決定部 1 0 3から第 1〜第 4の符号化ュニッ トの被正規化データを量子化する際の量子 化ステップを指示するための量子化精度情報も供給されるようになされている。 すなわち、 量子化精度決定部 1 0 3は、 帯域分割部 1 0 1からの第 1〜第 4の 符号化ュニットの信号に基づいて、 第 1〜第 4の符号化ュニットの被正規化デー タそれぞれを量子化する際の量子化ステップを決定する。 そして、 その量子化ス テツプに対応する第 1〜第 4の符号化ュニットの量子化精度情報を、 量子化部 1 0 4 i〜 1 0 4 4にそれぞれ出力するとともに、 マルチプレクサ 1 0 5にも出力す る。
量子化部 1 0 4 i〜 l 0 4 4では、 第 1〜第 4の符号化ュニットの被正規化デー タが、 第 1〜第 4の符号化ュニットの量子化精度情報に対応する量子化ステップ でそれぞれ量子化されることにより符号化され、 その結果得られる第 1〜第 4の 符号化ユニットの量子化係数が、 マルチプレクサ 1 0 5に出力される。 マルチプ レクサ 1 0 5では、 第 1〜第 4の符号化ユニッ トの量子化係数、 量子化精度情報、 及び正規化情報が必要に応じて符号化された後、 多重化される。 そして、 その結 果得られる符号化データは、 伝送路を介して伝送され、 或いは図示しない記録媒 体に記録される。
なお、 量子化精度決定部 1 0 3において、 量子化ステップの決定は、 帯域分割 して得られた信号に基づいて行うほか、 例えば、 正規化データに基づいて行った り、 また、 マスキング効果等の聴覚現象を考慮して行うようにすることもできる。 続いて図 2に、 以上のような構成を備える符号化装置 1 0 0から出力される符 号化データを復号する復号装置 1 2 0の構成の一例を示す。 図 2において、 符号 化データは、 デマルチプレクサ 1 2 1に入力されて復号され、 第 1〜第 4の符号 化ユニットの量子化係数、 量子化精度情報、 及び正規化情報に分離される。 第 1 〜第 4の符号化ユニットの量子化係数、 量子化精度情報、 及び正規化情報は、 そ れぞれの符号化ュニットに対応する信号成分構成部 1 2 2 i〜 l 2 2 4に供給され る。
信号成分構成部 1 2 2 iでは、 第 1の符号化ュニットの量子化係数が、 第 1の符 号化ュニッ トの量子化精度情報に対応した量子化ステップで逆量子化され、 これ により、 第 1の符号化ュニットの被正規化データとされる。 さらに、 信号成分構 成部 1 2 2 iでは、 第 1の符号化ュニットの被正規化データに、 第 1の符号化ュニ ッ トの正規化情報に対応する値が乗算され、 これにより、 第 1の符号化ユニット の信号が復号されて帯域合成部 1 2 3に出力される。
信号成分構成部 1 2 2 2〜 1 2 2 4においても同様の処理が行われ、 これにより、 第 2〜第 4の符号化ュニットの信号が復号されて帯域合成部 1 2 3に出力される。 帯域合成部 1 2 3では、 第 1〜第 4の符号化ユニッ トの信号が帯域合成され、 こ れにより元のオーディオ信号が復元される。
ところで、 図 1の符号化装置 1 0 0から図 2の復号装置 1 2 0に供給 (伝送) される符号化データには、 量子化精度情報が含まれているため、 復号装置におい て使われる聴覚モデルは任意に設定することができる。 すなわち、 符号化装置に おいて各符号化ユニットに対する量子化ステップを自由に設定することができ、 符号化装置の演算能力の向上や聴覚モデルの精緻化に伴って、 復号装置を変更す ることなく音質の改善や圧縮率の向上を図ることができる。
しかしながらこの場合、 量子化精度情報そのものを符号化するためのビッ ト数 が大きくなり、 全体の符号化効率をある値以上に向上させるのが困難であった。 そこで、 量子化精度情報を直接符号化する代わりに、 復号装置において、 例え ば正規化情報から量子化精度情報を決定する方法があるが、 この方法では、 規格 を決定した時点で正規化情報と量子化精度情報の関係が決まってしまうため、 将 来的にさらに高度な聴覚モデルに基づいた量子化精度の制御を導入することが困 難になるという問題がある。 また、 実現する圧縮率に幅がある場合には、 圧縮率 毎に正規化情報と量子化精度情報との関係を定める必要が生じる。 発明の開示 本発明は、 このような従来の実情に鑑みて提案されたものであり、 符号化装置 における量子化ステップの自由な設定を可能としながら、 直接の符号化の対象と なるオーディオ信号等の主情報及び直接の符号化の対象ではない量子化精度情報 や正規化情報等の副情報の符号 (匕効率をより向上させることを可能とする符号化 装 ιΐ'及びその方法、 復号装置及びその方法、 並びに符号化プログラム及び復号プ ログラムを提供することを目的とするものである。
本発明に係る符号化装匱は、 音響及びノ又は映像信号の直接の符号化対象であ る主情報と直接の符号化対象ではない副情報とを符号化する符号化装置において、 上記副情報の概形情報を計算する概形計算手段と、 上記概形情報を量子化して符 号化する概形符号化手段と、 量子化誤差を計算する誤差計算手段と、 上記量子化 誤差を情報を失うことなくロスレスで符号化する誤差符号化手段とを備え、 上記 概形符号化手段によつて符号化された上記概形情報と上記誤差符号化手段によつ て符号化された上記量子化誤差とを出力する。
このような符号化装置は、 音響及び/又は映像信号の副情報を符号化する際に、 副情報の概形情報を量子化して符号化し、 また、 その量子化誤差を情報を失うこ となくロスレスで符号化する。
また、 本発明に係る符号化方法は、 音響及び/又は映像信号の直接の符号化対 象である主情報と直接の符号化対象ではない副情報とを符号化する符号化方法に おいて、 上記副情報の概形情報を計算する概形計算工程と、 上記概形情報を量子 化して符号化する概形符号化工程と、 量子化誤差を計算する誤差計算工程と、 上 記量子化誤差を情報を失うことなくロスレスで符号化する誤差符号化工程とを有 し、 上記概形符号化工程にて符号化された上記概形情報と上記誤差符号化工程に て符号化された上記量子化誤差とを出力する。
このような符号化方法では、 音響及び/又は映像信号の副情報を符号化する際 に、 副情報の概形情報が量子化されて符号化され、 また、 その量子化誤差が情報 を失うことなくロスレスで符号化される。
また、 本発明に係る復号装置は、 符号化された音響信号及び Ζ又は映像信号を 復号する復号装置において、 符号化装置にて直接の符号化対象ではない副情報に ついての概形情報が符号化され、 上記概形情報を符号化する際の量子化誤差が情 報を失うことなくロスレスで符号化された上記概形情報と上記量子化誤差とを入 力して復号する復号装置であって、 上記副情報の量子化誤差を復号する誤差復号 手段と、 上記副情報の概形情報を復号する概形復号手段と、 復号された上記量子 化誤差と上記概形情報とを合成する合成手段とを備える。
このような復号装置は、 符号化装置において音響及び Z又は映像信号の副情報 を符号化する際に、 副情報の概形情報を量子化して符号化し、 その量子化誤差を 情報を失うことなくロスレスで符号化した副情報を入力し、 副情報の量子化誤差 と概形情報とを復号して合成する。
また、 本発明に係る復号方法は、 符号化された音響信号及びノ又は映像信号を 復号する復号方法において、 符号化装置にて直接の符号化対象ではない副情報に ついての概形情報が符号化され、 上記概形情報を符号化する際の量子化誤差が情 報を失うことなくロスレスで符号化された上記概形情報と上記量子化誤差とを入 力して復号する復号方法であって、 上記副情報の量子化誤差を復号する誤差復号 工程と、 上記副情報の概形情報を復号する概形復号工程と、 復号された上記量子 化誤差と上記概形情報とを合成する合成工程とを有する。
このような復号方法では、 符号化装置において音響及び 又は映像信号の副情 報を符号化する際に、 副情報の概形情報を量子化して符号化し、 その量子化誤差 を情報を失うことなくロスレスで符号化した副情報が入力され、 副情報の量子化 誤差と概形情報とが復号されて合成される。
また、 本発明に係る符号化プログラムは、 音響及び/又は映像信号の直接の符 号化対象である主情報と直接の符号化対象ではない副情報とを符号化する符号化 プログラムにおいて、 上記副情報の概形情報を計算する概形計算工程と、 上記概 形情報を量子化して符号化する概形符号化工程と、 量子化誤差を計算する誤差計 算工程と、 上記量子化誤差を情報を失うことなくロスレスで符号化する誤差符号 化工程とを有し、 上記概形符号化工程にて符号化された上記概形情報と上記誤差 符号化工程にて符号化された上記量子化誤差とを出力する。
このような符号化プログラムは、 音響及び/又は映像信号の副情報を符号化す る際に、 副情報の概形情報を量子化して符号化し、 その量子化誤差を情報を失う ことなくロスレスで符号化する。
また、 本発明に係る復号プログラムは、 ·符号化された音響信号及び/又は映像 信号を復号する復号プログラムにおいて、 符号化装置にて直接の符号化対象では ない副情報についての概形情報が符号化され、 上記概形情報を符号化する際の量 子化誤差が情報を失うことなくロスレスで符号化された上記概形情報と上記量子 化誤差とを入力して復号する復号プログラムであって、 上記副情報の量子化誤差 を復号する誤差復号工程と、 上記副情報の概形情報を復号する概形復号工程と、 復号された上記量子化誤差と上記概形情報とを合成する合成工程とを有する。 このような復号プログラムは、 符号化装置において音響及び Z又は映像信号の 副情報を符号化する際に、 副情報の概形情報を量子化して符号化し、 その量子化 誤差を情報を失うことなくロスレスで符号化した副情報を入力し、 副情報の量子 化誤差と概形情報とを復号して合成する。
本発明の更に他の目的、 本発明によって得られる具体的な利点は、 以下に説明 される実施例の説明から一層明らかにされるであろう。 図面の簡単な説明 図 1は、 従来の符号化装置の構成を説明する図である。
図 2は、 従来の復号装置の構成を説明する図である。
図 3は、 本実施の形態における符号化装置の構成を説明する図である。
図 4は、 同符号化装置における量子化精度情報符号化部の概念構成を説明する 図である。 - 図 5は、 同量子化精度情報符号化部の概形抽出部における動作を説明するフロ
—チヤ一トである。
図 6は、 同量子化精度情報符号化部の外形量子化部における動作を説明するた めのフローチャートである。
図 7は、 同量子化精度情報符号化部の残差信号計算部における動作を説明する ためのフローチャートである。 図 8は、 同量子化精度情報符号化部の残差信号符号化部における動作を説明す るためのフローチャートである。
図 9は、 同量子化精度情報符号化部における量子化精度情報の圧縮の具体例を 説明する図である。
図 1 O A乃至図 1 O Cは、 同量子化精度情報符号化部における量子化精度情報 の圧縮の具体例を説明する図であり、 図 1 0 Aは、 量子化精度情報とその平均値 を示し、 図 1 0 Bは、 量子化精度情報と量子化概形べク トルを示し、 図 1 0 Cは、 量子化精度情報残差信号を示す。
図 1 1は、 量子化精度情報残差信号を符号化する可変長符号列表の一例を説明 する図である。
図 1 2は、 正規化情報符号化部における正規化情報の圧縮の具体例を説明する 図である。
図 1 3 A乃至図 1 3 Cは、 同正規化情報符号化部における正規化情報の圧縮の 具体例を説明する図であり、 図 1 3 Aは、 正規化情報とその平均値を示し、 図 1 3 Bは、 正規化情報と量子化概形べク トルを示し、 図 1 3 Cは、 正規化情報残差 信号を示す。
図 1 4は、 正規化情報残差信号を符号化する可変長符号列表の一例を説明する 図である。
図 1 5は、 他の符号化形式で符号化する符号化部を有する符号化装置の一例を 説明する図である。
図 1 6は、 本実施の形態における復号装置の構成を説明する図である。
図 1 7は、 同復号装置における量子化精度情報復号部の概念構成を説明する図 である。 発明を実施するための最良の形態 以下、 本発明を適用した具体的な実施の形態について、 図面を参照しながら詳 細に説明する。 この実施の形態は、 本発明を、 オーディオ信号等を高能率符号化 して伝送し、 復号側でこれを受信して復号する符号化装置及ぴ復号装置に適用し たものである。 なお、 以下では、 オーディオ信号を高能率符号化するものとして 説明を行うが、 これに限定されるものではなく、 例えば映像信号であっても構わ ない。
先ず、 図 3に本実施の形態における符号化装置 1 0の構成を示す。 図 3におい て、 符号化すべきオーディオ信号は、 帯域分割部 1 1に入力され、 例えば、 4つ の周波数帯域の信号に帯域分割される。
ここで、 帯域分割部 1 1では、 Q M F (Quadrature M irror Fi l ter) 又は P Q F (Polyphase Quadrature Fi lter) 等のフィルタを用いて帯域分割を行うように することもでき、 また、 M D C T (Modi fied Di screte Cos ine Transformat ion) 等のスぺク トル変換を行い、 その結果得られるスぺク トル信号を帯域毎にグルー プ化することにより、 帯域分割を行うようにすることもできる。
なお、 帯域分割部 1 1でオーディオ信号を帯域分割するときの各帯域 (以下、 適宜、 符号化ユニットという) の幅は、 均一であっても、 また臨界帯域幅に合わ せるように不均一にしてもよい。 また、 オーディオ信号は、 4つの符号化ュ-ッ トに分割されるようになされているが、 符号化ユニッ トの数は、 これに限定され るものではない。
4つの符号化ユニッ ト (以下、 適宜、 4つの符号化ユニッ トそれぞれを、 第 1 〜第 4の符号化ユニットという) に分解された信号は、 所定の時間ブロック (フ レーム) 毎に、 量子化精度決定部 1 3に供給される。 さらに、 第 1〜第 4の符号 化ユニッ トの信号は、 正規化部 1 2 〜 1 2 4にも、 それぞれ供給される。
正規化部 1 2 t〜 1 2 4は、 例えば、 入力された第 1〜第 4の符号化ユニッ トの 信号それぞれを構成する各信号成分から絶対値が最大のものを抽出し、 この値に 対応する係数を第 1〜第 4の符号化ユニッ トの正規化係数とする。 そして、 正規 化部 1 2 〜 1 2 4では、 第 1〜第 4の符号化ュニッ トの信号を構成する各信号成 分が、 第 1〜第 4の符号化ュニットの正規化係数に対応する値でそれぞれ除算さ れることにより正規化される。 従って、 この場合、 正規化により得られる被正規 化データは、 一 1 . 0〜 1 . 0の範囲の値となる。
被正規化データは、 正規化部 1 2 i〜 1 2 4から量子化部 1 4 t〜 1 4 4にそれぞ れ出力される。 また、 第 1〜第 4の符号化ユニットの正規化係数は、 正規化部 1 2 i〜 l 2 4それぞれから正規化情報符号化部 1 6に出力され、 後述の方法で符号 化された後、 マルチプレクサ 1 7に出力される。
量子化部 1 4 〜 1 4 4には、 正規化部 1 2 t〜 1 2 ,!それぞれから第 1〜第 4の 符号化ュ-ッ トの被正規化データが供給されるほか、 量子化精度決定部 1 3から 第 1〜第 4の符号化ュニットの被正規化データを量子化する際の量子化ステツプ を指示するための量子化精度情報も供給されるようになされている。
すなわち、 量子化精度決定部 1 3は、 帯域分割部 1 1からの第 1〜第 4の符号 化ュニットの信号に基づいて、 第 1〜第 4の符号化ュニットの被正規化データそ れぞれを量子化する際の量子化ステップを決定する。 そして、 その量子化ステツ プに対応する第 1〜第 4の符号化ユニッ トの量子化精度情報を、 量子化部 1 4 t〜 1 4 4にそれぞれ出力するとともに、 量子化精度情報符号化部 1 5にも出力する。 量子化精度情報符号化部 1 5は、 後述するようにして量子化精度情報を符号化し た後、 マルチプレクサ 1 7に出力する。
量子化部 1 4 t〜 1 4 4では、 第 1〜第 4の符号化ュニットの被正規化データ力 S、 第 1〜第 4の符号化ユニッ トの量子化精度情報に対応する量子化ステップでそれ ぞれ量子化されることにより符号化され、 その結果得られる第 1〜第 4の符号化 ユニッ トの量子化係数が、 マルチプレクサ 1 7に出力される。 マルチプレクサ 1 7では、 第 1〜第 4の符号化ユニッ トの量子化係数が符号化され、 量子化精度情 報符号化部 1 5で符号化された量子化精度情報、 及び正規化情報符号化部 1 6で 符号化された正規化情報と共に多重化される。 そして、 マルチプレクサ 1 7の出 力として得られる符号化データは、 伝送路を介して伝送され、 或いは図示しない 記録媒体に記録される。
以上のように、 本実施の形態における符号化装置 1 0では、 直接の符号化の対 象となる主情報であるオーディオ信号と直接の符号化の対象ではない副情報であ る量子化精度情報及び正規化情報とが別個に符号化される。
次に、 上述した量子化精度情報符号化部 1 5の概念構成を図 4に示す。 なお、 図 3における符号化ユニットの数は 4であったが、 以下では、 符号化ユニットの 数を 1 2として説明を行う。
図 4に示すように、 概形抽出部 2 0は、 上述した符号化ユニットに対応する各 量子化ユニット毎の量子化精度情報を入力し、 その概形を抽出し、 概形符号化部 2 1に供給する。 概形符号化部 2 1は、 抽出された量子化精度情報の概形情報を 量子化して符号化する。 また、 概形符号化部 2 1は、 符号化された概形情報を残 差信号計算部 2 2に供給すると共に図 3のマルチプレクサ 1 7に量子化精度情報 として供給する。
残差信号計箨部 2 2は、 概形符号化部 2 1.における量子化誤差を計算し、 残差 信号符号化部 2 3に供給する。 残差信号符 化部 2 3は、 残差信号計^部 2 2か ら供給された量子化誤差を符号化し、 同じく量子化精度情報として図 3のマルチ プレクサ 1 7に供給する。
なお、 概形抽出部 2 0において量子化精度情報の概形情報を抽出するには、 種 々の手法を用いることができるが、 以下では、 その一例として、 ある単位量子化 ュニット数ごとに代表値を求めて、 それを量子化精度情報の概形とする手法を用 いるものとして説明を行う。
以下、 量子化精度情報符号化部 1 5の各部における詳しい処理について、 図 5 乃至図 8に示すフローチャートを用いて詳細に説明する。
先ず、 図 4の概形抽出部 2 0における処理を図 5に示す。 ここで、 図 5におい て iはカウンタの値、 I D W Lは量子化精度情報、 s h a p eは量子化精度情報 の代表値、 Mは代表値を求める際に量子化精度情報をまとめる単位量子化ュニッ ト数をそれぞれ表している。 なお、 Mの値は、 符号化側と復号側とで整合が取れ さえすればどのように決めてもよく、 固定の値でも可変の値でも構わない。 図 5 では、 一例として固定の値を用いている。
先ずステップ S 1において、 カウンタ iの値を 0に初期化する。 次にステップ S 2において、 ある単位量子化ュニット数 M毎に量子化精度情報の代表値を計算 する。 この代表値としては、 最大値や平均値等を用いるのが一般的である。 続いてステップ S 3において、 カウンタ iの値を 1増やす。 続くステップ S 4 において、 M * iの値が全量子化ュ-ット数である 1 2未満であるか否かが判別 される。 M * iの値が 1 2未満であれば、 ステップ S 2に戻って処理を続ける。 ステップ S 4において、 M * iの値が 1 2以上であれば、 処理を終了する。 以上のようにして抽出された量子化精度情報の概形が、 図 4に示した概形符号 化部 2 1において量子化、 符号化される。
量子化精度情報の概形の量子化及ぴ符号化についてのフローチヤ一トを図 6に 示す。 ここで、 図 6において iはカウンタの値、 s h a p eは概形ベク トル、 q s h a p e ( i ) は i番目のインデックスにおける量子化概形ベク トル、 e r r は概形べク トルと量子化概形べク トルの誤差 (距離) 、 m i nは誤差の最小値、 i n d e xは概形べク トル量子化 ilftのィンデックス、 C B s i z eは量子化概形 べク トルのコードブックのサイズ (ィンデックスの数) をそれぞれ表している。 図 6において、 先ずステップ S 1 1では、 誤差最小値 m i nを、 概形ベク トル s h a eと量子化概形ベタ トル q s h a p e (0) の距離として初期化し、 量 子化概形ベク トルのインデックス i n d e Xを 0に初期化する。 ここで、 量子化 概形ベタ トル q s h a p eは、 予め学習作成されコードプックとして保存されて いるものとする。
次にステップ S 1 2において、 力ゥンタ iの値を 1に初期化し、 ステップ S 1 3において、 概形べク トル s h a p eと量子化概形ベタ トル q s h a p e ( i ) の量子化誤差し、 r rを計算する。
ステップ S I 4では、 量子化誤差 e r rが誤差最小値 m i n未満であるか否か が判別される。 量子化誤差 e r rが誤差最小値 m i ιι未満であれば、 ステップ S 1 5に進み、 量子化誤差最小値 m i nに量子化誤差 e r rを代入し、 量子化値ィ ンデッタス i n d e Xに iを代入する。 ステップ S 1 4において、 量子化誤差 e r rが誤差最小値 m i n未満でなければ、 ステップ S 1 6に進む。
ステップ S 1 6では、 力ゥンタ iの値を 1増やし、 ステップ S 1 7では、 力ゥ ンタ iの値がコードブックサイズ C B s i z e未満であるか否かが判別される。 カウンタ iの値がコードプックサイズ C B s i z e未満であれば, ステップ S 1 3に戻り処理を続ける。 ステップ S 1 7において、 カウンタ iの値がコードプッ クサイズ CB s i z e未満でなければ、 ステップ S 1 8で量子化値インデックス i n d e xを符号化して終了する。
このように、 図 4に示した概形符号化部 2 1では、 コードプックの各インデッ タスにおける量子化概形ベクトルと概形ベクトルとの誤差 (距離) を各インデッ クスについて計算し、 その誤差が最小となるィンデッタスを符号化する。 図 4に示す残差信号計算部 2 2では、 図 7に示すようにして量子化精度情報の 残差信号を計算する。 ここで、 図 7において i及び j はカウンタの値、 I DWL は量子化精度情報、 q s h a p eは量子化概形べク トル、 i n d e xは量子化概 形ベク トルのインデックス、 r I DWLは量子化精度情報残差信号、 Mは量子化 精度情報をまとめる単位量子化ュニット数をそれぞれ表している。
図 7において、 先ずステップ S 2 1では、 カウンタ iの値を 0に初期化し、 ス テツプ S 2 2では、 カウンタ j の値を 0に初期化する。
続いてステップ S 2 3において、 量子化精度情報残差信号を計算する。 量子化 精度情報残差信号は、 量子化精度情報 I DWLから図 4に示す概形符号化部 2 1 で符号化されたィンデッタスに対応する量子化概形ベタ トルの値を減算すること により求められる。
次にステップ S 24において、 カウンタ; jの値を 1増やす。 ステップ S 2 5で は、 j の値が Mの未満であるか否かが判別される。 j の値が M未満であるならば ステップ S 2 3に戻り、 量子化情報残差信号の値を計算する。 ステップ S 2 5に おいて、 j の値が M未満でないならばステップ S 2 6に進み、 カウンタ iの値を 1増やす。
ステップ S 2 7では、 M* iの値が全量子化ュニット数である 1 2未満である か否かが判別される。 M* iの値が 1 2未満であれば、 ステップ S 2 2に戻って 処理を続ける。 ステップ S 2 7において、 M* i の値が 1 2未満でなければ、 処 理を終了する。
このようにして計算された量子化精度情報残差信号が図 4に示す残差信号符号 化部 2 3において図 8に示すように符号化される。 ここで、 図 8において iは力 ゥンタの値、 r I DWL ( i ) は量子化精度情報残差信号を表している。
先ずステップ S 3 1において、 カウンタ iの値を 0に初期化し、 次にステップ S 3 2において、 r I DWL ( i ) を符号化する。 このとき、 可変長符号列表を 用意し、 それを用いて符号化を行うと効率良く符号化を行うことができる。 続いてステップ S 3 3において、 カウンタ iの値を 1増やし、 ステップ S 3 4 において、 カウンタ iの値が全量子化ュニット数である 1 2未満であるか否かが 判別される。 カウンタ iの値が全量子化ュニット数である 1 2未満であればステ ップ S 3 2に戻り処理を続ける。 ステップ S 3 4において、 カウンタ iの値が全 量子化ュニット数である 1 2未満でなければ終了する。
以上のようにして得られた、 符号化された量子化精度情報残差信号とコードブ ックのインデックスとを量子化精度情報として用いることで、 量子化精度情報を 効率よく圧縮することができる。
量子化精度情報の圧縮の具体例を図 9と図 1 0 A乃至図 1 0 Cとを用いて説明 する。 この例では、 ii-子化精度情報 ( I DWL) をまとめる単位量子化ユニッ ト 数 Mを 3としており'、 量子化精度情報を 3つずつまとめ、 代表値としてその平均 値を求めることにより、 量子化精度情報の概形 ( s h a p e) を求めている。 ま た、 量子化精度情報は、 3ビットで符号化するものとして説明を行う。
例えば、 量子化ユニット (QU) 毎の量子化精度情報が、 図 1 0 Aのように与 えられるとする。 量子化ユニット番号 0〜 2の量子化精度情報がそれぞれ 7 , 7, 6であるため、 代表値は、 その平均値である 7となる。 これを全ての量子化精度 情報に対して求めると、 概形ベク トルは、 4次元ベク トル (7 , 4 , 2, 1 ) と なる。
図 9に示すコードプックの各インデックスについて、 この概形ベタ トルと量子 化概形べク トル (q s h a p e ) との距離を計算すると、 インデックス 2の量子 化概形ベク トル ( 7 , 5 , 2, 1 ) との距離が一番近いことが分かる。 このとき、 量子化精度情報 ( I DWL) と量子化概形べク トル (q s h a p e) とは、 図 1 0 Bのようになる。
この量子化概形べク トルと量子化精度情報とから、 量子化精度情報残差信号 ( r I DWL) が求められる。 すなわち、 量子化精度情報から量子化概形べク ト ルの値を減算することにより量子化精度情報残差信号が求められる。 この量子化 精度情報残差信号は、 図 1 0 Cのようになる。
この量子化精度情報残差信号を図 1 1に示す可変長符号列表を用いて可変長符 号化すると、 そのビット数は 1 9ビットとなる。 図 9に示す量子化概形ベク トル のインデックスは、 4ビッ トで表されるため、 量子化精度情報の符号化後のビッ ト数は、 その合計である 2 3ビットとなる。 非圧縮の場合は 3 6ビット必要にな ることから、 本実施の形態の手法を用いることにより 1 3ビッ トの圧縮が可能と なる。
なお、 上述の例では、 量子化精度情報残差信号について可変長符号化を行った 力 量子化精度情報残差信号の周波数方向の差分値について可変長符号化を行う ようにしても構わない。 すなわち、 この量子化精度情報残差信号や後述する正規 化情報残差信号は、 隣の量子化ユニット間、 隣のチャネル間、 隣の時刻間で値が 似ることが多いため、 例えば周波数方向の差分値を計算すると、 その出現確率に 大きな偏りが生じ、 特に差分値 0付近の確率が高くなる。 そこで、 出現覚率の高 い差分値に短い符号を割り当てることにより、 符号化ビッ ト数を減らすことがで きる。
また、 可変長符号化を用いる他にも種々の手法を用いることができる。 例えば、 量子化精度情報残差信号は、 低周波数域では大きな値になり高周波数域では小さ な値になることが多いため、 低周波数域の値を減らすような、 又は高周波数域の 値を增やすような重み付けをすることにより、 全帯域でのダイナミックレンジを 狭めることができ、 これにより、 少ないビット数での符号化を行うことができる。 また、 量子化精度情報残差信号は、 ある帯域以上の量子化ユニットでは情報の分 布範囲が狭くなっていることがよくあるため、 その境界量子化ュニッ ト番号を另 IJ に符号化することにより、 境界帯域以上の情報を少ないビット数で符号化するこ とができる。
また、 量子化精度情報の概形ベタ トルの量子化に用いるコードプックを指定す る際に、 ゲインと形状とを分けて指定するようにしても構わない。 これにより、 小さいサイズのコードプックで、 より効率的に符号化することが可能となる。 以上、 量子化精度情報の場合について説明したが、 正規化情報の場合にも同様 な手法により圧縮が可能である。 詳しい説明は省略するが、 簡単には、 図 3に示 す正規化情報符号化部 1 6は、 各量子化ュニット毎の正規化情報の概形を抽出し、 抽出された正規化情報の概形を量子化して符号化し、 図 3のマルチプレクサ 1 7 に出力する。 また、 その量子化誤差を符号化し、 正規化情報として図 3のマルチ プレクサ 1 7に出力する。
正規化情報の圧縮の具体例を図 1 2と図 1 3 A乃至図 1 3 Cとを用いて説明す る。 この例についても、 正規化情報 ( I D S F ) をまとめる単位量子化ユニット 数 Mを 3としており、 正規化情報を 3つずつまとめ、 代表値としてその平均値を 求めることにより、 正規化情報の概形 ( s h a p e ) を求めている。 また、 正規 化情報は、 6ビットで符号化するものとして説明を行う。
例えば、 量子化ユニット (QU) 毎の正規化情報が、 図 1 3 Aのように与えら れるとする。 量子化ユニット番号 0〜2の正規化情報がそれぞれ 54, 5 3, 5
2であるため、 代表値は、 その平均値である 5 3となる。 これを全ての正規化情 報に対して求めると、 概形ベク トルは、 4次元ベク トル (5 3, 4 1 , 4 1 , 4
5 ) となる。
図 1 2に示すコードブックの各インデックスについて、 この概形べク トルと量 子化概形ベク トル (q s li a p e ) との誤差 (距離) を計算すると、 インデック ス 2の量子化概形ベク トル ( 5 2 , 4 1 , 40, 4 6) との距離が一番近いこと が分かる。 このとき、 量子化精度情報 ( I D S F) と量子化概形べク トル ( q s h a p e ) とは、 図 1 3 Bのようになる。
この量子化概形ベタ トルと正規化情報とから、 正規化情報残差信号 (r I D S F) が求められる。 すなわち、 正規化情報から量子化概形ベク トルの値を減算す ることにより正規化情報残差信号が求められる。 この正規化情報残差信号は、 図 1 3 Cのようになる。
この正規化情報残差信号を図 1 4に示す可変長符号列表を用いて可変長符号化 すると、 そのビット数は 3 3ビットとなる。 図 9に示す量子化概形ベク トルのィ ンデックスは、 4ビットで表されるため、 量子化精度情報の符号化ビット数は、 合計で 3 7ビットとなる。 非圧縮の場合は 7 2ビット必要になることから、 本実 施の形態の手法を用いることにより 3 5ビットの圧縮が可能となる。
このように、 本実施の形態における符号化装置 1 0によれば、 量子化精度情報 及び正規情報といった副情報を、 情報を失うことなく効率的に圧縮することがで きる。 しかし、 入力する信号の性質により、 例えば図 1 1に示した可変長符号列 表において、 量子化精度情報残差信号が一 1〜+ 1までの範囲に入らない場合が 多くなる場合には、 通常通りに量子化精度情報を符号化した方がビット数を削減 できることも想定できる。 このため、 副情報を他の符号化方式によって符号化す る符号化部を設け、 本実施の形態の符号化方式による符号量と当該他の符号化方 式による符号量とを比較部で比較し、 符号量の少ない符号化方式を選択部で選択 するようにするのが現実的である。
この場合、 符号化装置は、 図 1 5に示すように、 主情報符号化部 5 0と、 第 1 の副情報符号化部 5 1と、 第 2の副情報符号化部 5 2と、 比較手段である比較部 5 3と、 選択手段であるスィッチ 5 4とを備える。 ここで、 主情報符号化部 5 0 は、 図 3に示す帯域分割部 1 1、 正規化部 1 2 ~ 1 2 4、 量子化精度決定部 1 3、 量子化部 1 4 〜 1 4 及びマルチプレクサ 1 7に相当する。 また、 第 1の副情報 符号化部 5 1は、 量子化精度情報や正規化情報等の副情報について本実施の形態 における手法で、 すなわち概形を抽出して符号化し、 第 2の副情報符号化部 5 2 は、 通常通りに副情報を符号化する。
比較部 5 3は、 第 1の副情報符号化部 5 1と第 2の副情報符号化部 5 2とにお ける符号量を比較し、 符号量の少ない側を選択するようにスィッチ 5 4を制御す る。 これにより、 選択された符号化後の副情報が主情報符号化部 5 0に供給され る。
次に、 図 1 6に本実施の形態における復号装置 3 0の構成を示す。 図 1 6にお いて、 符号化データは、 デマルチプレクサ 3 1に入力されて復号され、 第 1〜第 4の符号化ユニットの量子化係数、 量子化精度情報、 及び正規化情報に分離され る。 第 1〜第 4の符号化ユニッ トの量子化係数は、 それぞれの符号化ユニッ トに 対応する信号成分構成部 3 4 i〜 3 4 4に供給される。 また、 量子化精度情報及ぴ 正規化情報は、 それぞれ量子化精度情報復号部 3 2、 正規化情報復号部 3 3で復 号された後に、 それぞれの符号化ュニットに対応する信号成分構成部 3 4 i〜 3 4 4に供給される。
信号成分構成部 3 4 iでは、 第 1の符号化ユニッ トの量子化係数が、 第 1の符号 化ュニットの量子化精度情報に対応した量子化ステップで逆量子化され、 これに より、 第 1の符号化ユニッ トの被正規化データとされる。 さらに、 信号成分構成 部 3 4 では、 第 1の符号化ユニッ トの被正規化データに、 第 1の符号化ユニット の正規化情報に対応する値が乗算され、 これにより、 第 1の符号化ユニッ トの信 号が復号されて帯域合成部 3 5に出力される。
信号成分構成部 3 4 2〜 3 4 4においても同様の処理が行われ、 これにより、 第 2〜第 4の符号化ュニッ トの信号が復号されて帯域合成部 3 5に出力される。 帯 域合成部 3 5では、 第 1〜第 4の符号化ユニットの信号が帯域合成され、 これに より元のオーディオ信号が復元される。
続いて、 上述した量子化精度情報復号部 3 2の概念構成を図 1 7に示す。 図 1 7に示すように、 残差信号復号部 4 0は、 入力された量子化精度情報残差信号を 復号して合成部 4 2に供給する。 また、 概形復号部 4 1は、 入力されたインデッ クスに基づいて量子化精度情報の概形情報を復号して合成部 4 2に供給する。 合 成部 4 2は、 概形情報と量子化精度情報残差信号とを合成し、 量子化精度情報と して、 図 1 6に示すそれぞれの量子化ュニットに対応する信号成分構成部 3 4 i〜 3 4 4に供給する。
以上説明したように、 本実施の形態では、 量子化精度情報や正規化情報等の副 情報について、 その概形を量子化し、 量子化誤差 (残差信号) を可変長符号化す ることにより、 副情報の符号化に用いるビット数を削減することが可能となる。 従って、 削減されたビット数をオーディオ信号等の主情報の符号化に分配するこ とができ、 符号化音の品質を向上させることが可能となる。
なお、 本発明は上述した実施の形態のみに限定されるものではなく、 本発明の 要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。
例えば、 上述の説明では、 量子化精度情報及び正規化情報の概形を抽出する際 に、 ある単位量子化ユニット数毎に求められた代表値を概形情報としたが、 これ に限定されるものではなく、 概形情報として、 線形予測係数から求められる L P C包絡、 L S P包絡、 或いは、 パワースペク トラムの対数を時間軸に変換するこ とにより求められるケプストラム包絡等を用いることもできる。 以下、 簡単に説 明する。
オーディオ信号の波形を { x ( t ) } ( t :整数) としたとき、 現時点の値 X ( t ) とこれに隣接する過去の p個の値との間に、 以下の式 (1 ) に示す関係が 成り立つと仮定する。 t) = x(t) - a(\)x(t-l ) a(p)x(t-p) · · · (!) この線形差分方程式によれば、 予測誤差 e ( t ) を最小化する α ( i ) ( 1 ≤ α ≤ p ) を求めることで、 現時点の値 X ( t ) を過去の値から線形予測すること ができる。 すなわち、 X ( t ) の線形予測値を x ' ( t ) とすれば、 x ' ( t ) は、 以下の式 (2 ) のように表される。 また、 このときの予測誤差 e ( t ) は、 式 ( 3 ) のように表される。
(2)
Figure imgf000024_0001
なお、 このひ ( i ) を線形予測係数 (L P C ) という。 この L P Cは、 先ず、 X ( t ) の自己相関関数 r ( τ ) を求め、 この r ( τ ) に関する連立 1次方程式 を解くことによって求められる。
ここで、 正規化係数は、 各量子化ュニッ トにおけるスぺク トルの絶対値の最大 値であるため、 この正規化係数又は正規化係数の 2乗をパワースぺク トルの値の 最大値と見なすことができる。 パワースペク トルの逆フーリエ変換値は、 自己相 関関数となるため、 正規化係数から線形予測係数を求めることができる。
また、 線形予測係数から求められる L S Ρ (線スペク トル対) の値を正規化係 数の概形として用いてもよい。
また、 ケプストラムは、 パワースぺク トルの対数値をとり、 逆フーリェ変換し たものである。 そこで、 正規化係数又は正規化係数の 2乗の対数値をとり、 逆フ 一リエ変換することにより、 正規化係数よりケプス トラムが求められ、 その低次 の次数を用いることで、 正規化係数の概形を表現することができる。
量子化精度情報についても、 量子化精度情報を仮にパワースぺク トルの値と見 なすことにより、 同様に、 L P C、 L S P、 ケプス トラムによって量子化精度情 報の概形を表現することができる。 産業上の利用可能性 上述したような本発明によれば、 量子化精度情報や正規化情報等の副情報につ いて、 その概形を量子化し、 量子化誤差 (残差信号) を可変長符号化することに より、 副情報の符号化に用いるビット数を削減することが可能となる。 従って、 削減されたビット数をオーディォ信号等の主情報の符号化に分配することができ- 符号化音の品質を向上させることが可能となる。

Claims

請求の範囲
1 . 音響及び/又は映像信号の直接の符号化対象である主情報と直接の符号化対 象ではない副情報とを符号化する符号化装置において、
上記副情報の概形情報を計算する概形計算手段と、
上記概形情報を量子化して符号化する概形符号化手段と、
上記概形符号化手段における量子化誤差を計算する誤差計算手段と、 上記量子化誤差を情報を失うことなくロスレスで符号化する誤差符号化手段と を備え、
上記概形符号化手段によつて符号化された上記概形情報と上記誤差符号化手段 によって符号化された上記量子化誤差とを出力すること
を特徴とする符号化装置。 '
2 . 請求の範囲第 1項記載の符号化装置であって、
上記概形計算手段は、 上記副情報の概形を当該副情報の線形予測係数より求め ることを特徴とする符号化装置。
3 . 請求の範囲第 1項記載の符号化装置であって、
上記概形計算手段は、 上記副情報の概形を当該副情報のケプストラム係数より 求めることを特徴とする符号化装置。
4 . 請求の範囲第 1項記載の符号化装置であって、
上記概形計算手段は、 上記副情報の代表値を所定の単位ュニット毎に計算する ことにより当該副情報の概形を求めることを特徴とする符号化装置。
5 . 請求の範囲第 4項記載の符号化装置であって、
上記代表値は、 平均値であることを特徴とする符号化装置。
6 . 請求の範囲第 4項記載の符号化装置であって、
上記代表値は、 最大値であることを特徴とする符号化装置。
7 . 請求の範囲第 1項記載の符号化装置であって、
上記概形符号化手段は、 上記概形計算手段により計算された概形情報をべク ト ル量子化することを特徴とする符号化装置。
8 . 請求の範囲第 7項記載の符号化装置であって、 上記概形符号化手段は、 予め用意された概形情報符号化用の符号帳から、 量子 化誤差が最小となる符号帳のィンデックスを符号化することを特徴とする符号化 装置。
9 . 請求の範囲第 1項記載の符号化装置であって、
上記誤差計算手段は、 上記副情報と上記概形符号化手段で符号化された概形情 報との差分を計算することを特徴とする符号化装置。
1 0 . 請求の範囲第 1項記載の符号化装置であって、
上記誤差符号化手段は、 上記量子化誤差を可変長の符号列に符号化することを 特徴とする符号化装置。
1 1 . 請求の範囲第 1 0項記載の符号化装置であって、
上記可変長の符号列は、 ハフマン符号よりなることを特徴とする符号化装置。
1 2 . 請求の範囲第 1項記載の符号化装置であって、
上記副情報は、 正規化情報であることを特徴とする符号化装置。
1 3 . 請求の範囲第 1項記載の符号化装置であって、
上記副情報は、 量子化精度情報であることを特徴とする符号化装置。
1 4 . 請求の範囲第 1項記載の符号化装置であって、
上記音響及び Z又は映像信号を所定の符号化ュニットに分割する分割手段と、 上記符号化ュニット毎に正規化情報及び量子化精度情報を決定する決定手段と、 上記正規化情報に基づいて上記音響及び/又は映像信号を正規化する正規化手 段と、
上記量子化精度情報に基づいて上記音響及び/又は映像信号を量子化する量子 化手段と、
上記量子化精度情報に対応する符号化方式で上記音響及び/又は映像信号を符 号化する符号化手段と
を備えることを特徴とする符号化装置。
1 5 . 請求の範囲第 1項記載の符号化装置であって、
上記誤差符号化手段による符号量と上記副情報を符号化する他の符号化方式に よる符号量とを比較する比較手段と、
上記比較手段による比較の結果、 符号量の少ない方を選択する選択手段と を備えることを特徴とする符号化装置。
1 6 . 音響及び/又は映像信号の直接の符号化対象である主情報と直接の符号化 対象ではない副情報とを符号化する符号化方法において、
上記副情報の概形情報を計算する概形計算工程と、
上記概形情報を量子化して符号化する概形符号化工程と、
量子化誤差を計算する誤差計算工程と、
上記量子化誤差を情報を失うことなくロスレスで符号化する誤差符号化工程と を有し、
上記概形符号化工程にて符号化された上記概形情報と上記誤差符号化工程にて 符号化された上記量子化誤差とを出力すること
を特徴とする符号化方法。
1 7 . 符号化された音響信号及び/又は映像信号を復号する復号装置において、 符号化装置にて直接の符号化対象ではない副情報についての概形情報が符号化さ れ、 上記概形情報を符号化する際の量子化誤差が情報を失うことなくロスレスで 符号化された上記概形情報と上記量子化誤差とを入力して復号する復号装置であ つて、
上記副情報の量子化誤差を復号する誤差復号手段と、
上記副情報の概形情報を復号する概形復号手段と、
復号された上記量子化誤差と上記概形情報とを合成する合成手段と
を備えることを特徴とする復号装置。
1 8 . 請求の範囲第 1 7項記載の復号装置であって、
上記副情報についての概形情報は、 当該副情報の線形予測係数より求められた ものであることを特徴とする復号装置。
1 9 . 請求の範囲第 1 7項記載の復号装置であって、
上記副情報についての概形情報は、 当該副情報のケプストラム係数より求めら れたものであることを特徴とする復号装置。
2 0 . 請求の範囲第 1 7項記載の復号装置であって、
上記副情報についての概形情報は、 当該副情報の代表値を所定の単位ュ-ット に計算することにより求められたものであることを特徴とする復号装置。
2 1 . 請求の範囲第 2 0項記載の復号装置であって、
上記代表値は、 平均値であることを特徴とする復号装置。
2 2 . 請求の範囲第 2 0項記載の復号装置であって、
上記代表値は、 最大値であることを特徴とする復号装 K。
2 3 . 請求の範囲第 1 7項記載の復号装置であって、
上記概形情報の符号化では、 上記概形情報をべク トル量子化することを特徴と する復号装置。
2 4 . 請求の範囲第 2 3項記載の復号装置であって、
予め用意された概形情報符号化用の符号帳から、 量子化誤差が最小となる符号 のィンデックスを符号化することを特徴とする復号装置。
2 5 . 請求の範囲第 1 7項記載の復号装置であって、
上記量子化誤差は、 上記副情報と符号化された上記外形情報との差分であるこ とを特徴とする復号装置。
2 6 . 請求の範囲第 1 7項記載の復号装置であって、
上記量子化誤差の符号化では、 上記量子化誤差を可変長の符号列に符号化する ことを特徴とする復号装置。
2 7 . 請求の範囲第 2 6項記載の復号装置であって、
上記可変長の符号列は、 ハフマン符号よりなることを特徴とする復号装置。
2 8 . 請求の範囲第 1 7項記載の復号装置であって、
上記副情報は、 正規化情報であることを特徴とする復号装置。
2 9 . 請求の範囲第 1 7項記載の復号装置であって、
上記副情報は、 量子化精度情報であることを特徴とする復号装置。
3 0 . 請求の範囲第 1 7項記載の復号装置であって、
上記符号化された音響信号及び/又は映像信号を量子化係数、 量子化精度情報 及び正規化情報に分離する分離手段と、
復号された上記量子化精度情報及び上記正規化情報に基づいて、 所定の符号化 ユニット毎に上記量子化係数を復号する復号手段と、
復号された上記符号化ュニット毎の量子化係数を合成して上記音響信号及ぴ / 又は映像信号を復元する復元手段と を備えることを特徴とする復号装置。
3 1 . 符号化された音響信号及び Z又は映像信号を復号する復号方法において、 符号化装置にて直接の符号化対象ではない副情報についての概形情報が符号化さ れ、 上記概形情報を符号化する際の量子化誤差が情報を失うことなくロスレスで 符号化された上記概形情報と上記量子化誤差とを入力して復号する復号方法であ つて、
上記副情報の量子化誤差を復号する誤差復号工程と、
上記副情報の概形情報を復号する概形復号工程と、
復号された上記量子化誤差と上記概形情報とを合成する合成工程と
を有することを特徴とする復号方法。
3 2 . 音響及び/又は映像信号の直接の符号化対象である主情報と直接の符号化 対象ではない副情報とを符号化する符号化プログラムにおいて、
上記副情報の概形情報を計算する概形計算工程と、
上記概形情報を量子化して符号化する概形符号化工程と、
量子化誤差を計算する誤差計算工程と、
上記量子化誤差を情報を失うことなくロスレスで符号化する誤差符号化工程と を有し、
上記概形符号化工程にて符号化された上記概形情報と上記誤差符号化工程にて 符号化された上記量子化誤差とを出力すること
を特徴とする符号化プログラム。
3 3 . 符号化された音響信号及び Z又は映像信号を復号する復号プログラムにお いて、 符号化装置にて直接の符号化対象ではない副情報についての概形情報が符 号化され、 上記概形情報を符号化する際の量子化誤差が情報を失うことなく ロス レスで符号化された上記概形情報と上記量子化誤差とを入力して復号する復号プ ログラムであって、
上記副情報の量子化誤差を復号する誤差復号工程と、
上記副情報の概形情報を復号する概形復号工程と、
復号された上記量子化誤差と上記概形情報とを合成する合成工程と
を有することを特徴とする復号プログラム。
PCT/JP2002/005808 2001-06-15 2002-06-11 Appareil et procede de codage, appareil et procede de decodage et programme WO2002103685A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP02733479A EP1396841B1 (en) 2001-06-15 2002-06-11 Encoding apparatus and method, decoding apparatus and method, and program
DE2002625276 DE60225276T2 (de) 2001-06-15 2002-06-11 Codierungsvorrichtung und -verfahren, decodierungsvorrichtung und -verfahren und programm
US10/344,624 US7212973B2 (en) 2001-06-15 2002-06-11 Encoding method, encoding apparatus, decoding method, decoding apparatus and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2001182383A JP4506039B2 (ja) 2001-06-15 2001-06-15 符号化装置及び方法、復号装置及び方法、並びに符号化プログラム及び復号プログラム
JP2001-182383 2001-06-15

Publications (1)

Publication Number Publication Date
WO2002103685A1 true WO2002103685A1 (fr) 2002-12-27

Family

ID=19022495

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2002/005808 WO2002103685A1 (fr) 2001-06-15 2002-06-11 Appareil et procede de codage, appareil et procede de decodage et programme

Country Status (5)

Country Link
US (1) US7212973B2 (ja)
EP (1) EP1396841B1 (ja)
JP (1) JP4506039B2 (ja)
DE (1) DE60225276T2 (ja)
WO (1) WO2002103685A1 (ja)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
JP4296752B2 (ja) * 2002-05-07 2009-07-15 ソニー株式会社 符号化方法及び装置、復号方法及び装置、並びにプログラム
DE10328777A1 (de) * 2003-06-25 2005-01-27 Coding Technologies Ab Vorrichtung und Verfahren zum Codieren eines Audiosignals und Vorrichtung und Verfahren zum Decodieren eines codierten Audiosignals
EP1678959A4 (en) * 2003-10-13 2011-04-27 Realnetworks Inc APPARATUS AND METHOD FOR ENCODING COMPACT SIGNALS
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
EP1578134A1 (en) 2004-03-18 2005-09-21 STMicroelectronics S.r.l. Methods and systems for encoding/decoding signals, and computer program product therefor
EP1578133B1 (en) * 2004-03-18 2007-08-15 STMicroelectronics S.r.l. Methods and systems for encoding/decoding signals, and computer program product therefor
JP4734859B2 (ja) * 2004-06-28 2011-07-27 ソニー株式会社 信号符号化装置及び方法、並びに信号復号装置及び方法
JP4609097B2 (ja) * 2005-02-08 2011-01-12 ソニー株式会社 音声符号化装置及び方法、並びに音声復号装置及び方法
US8249861B2 (en) * 2005-04-20 2012-08-21 Qnx Software Systems Limited High frequency compression integration
US8086451B2 (en) * 2005-04-20 2011-12-27 Qnx Software Systems Co. System for improving speech intelligibility through high frequency compression
US7813931B2 (en) * 2005-04-20 2010-10-12 QNX Software Systems, Co. System for improving speech quality and intelligibility with bandwidth compression/expansion
JP4635709B2 (ja) * 2005-05-10 2011-02-23 ソニー株式会社 音声符号化装置及び方法、並びに音声復号装置及び方法
US7562021B2 (en) 2005-07-15 2009-07-14 Microsoft Corporation Modification of codewords in dictionary used for efficient coding of digital media spectral data
US7630882B2 (en) 2005-07-15 2009-12-08 Microsoft Corporation Frequency segmentation to obtain bands for efficient coding of digital media
US7835904B2 (en) * 2006-03-03 2010-11-16 Microsoft Corp. Perceptual, scalable audio compression
US7461106B2 (en) * 2006-09-12 2008-12-02 Motorola, Inc. Apparatus and method for low complexity combinatorial coding of signals
KR101411900B1 (ko) * 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
US7761290B2 (en) 2007-06-15 2010-07-20 Microsoft Corporation Flexible frequency and time partitioning in perceptual transform coding of audio
US8046214B2 (en) 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8576096B2 (en) * 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
US8209190B2 (en) * 2007-10-25 2012-06-26 Motorola Mobility, Inc. Method and apparatus for generating an enhancement layer within an audio coding system
US8249883B2 (en) 2007-10-26 2012-08-21 Microsoft Corporation Channel extension coding for multi-channel source
US20090234642A1 (en) * 2008-03-13 2009-09-17 Motorola, Inc. Method and Apparatus for Low Complexity Combinatorial Coding of Signals
US8639519B2 (en) * 2008-04-09 2014-01-28 Motorola Mobility Llc Method and apparatus for selective signal coding based on core encoder performance
KR101518532B1 (ko) 2008-07-11 2015-05-07 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 인코더, 오디오 디코더, 오디오 신호, 오디오 스트림을 부호화 및 복호화하는 장치 및 컴퓨터 프로그램
US8175888B2 (en) * 2008-12-29 2012-05-08 Motorola Mobility, Inc. Enhanced layered gain factor balancing within a multiple-channel audio coding system
US8140342B2 (en) * 2008-12-29 2012-03-20 Motorola Mobility, Inc. Selective scaling mask computation based on peak detection
US8200496B2 (en) * 2008-12-29 2012-06-12 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
US8219408B2 (en) * 2008-12-29 2012-07-10 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
CN102449689B (zh) * 2009-06-03 2014-08-06 日本电信电话株式会社 编码方法、编码装置、编码程序、以及它们的记录介质
JP5501014B2 (ja) * 2010-02-05 2014-05-21 キヤノン株式会社 情報処理装置、情報処理方法、プログラム及び記憶媒体
US8428936B2 (en) * 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
ES2619369T3 (es) * 2010-03-09 2017-06-26 Nippon Telegraph And Telephone Corporation Método de codificación, método de descodificación, aparato, programa y soporte de registro
JP5325340B2 (ja) * 2010-07-05 2013-10-23 日本電信電話株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、及び記録媒体
CN105225669B (zh) * 2011-03-04 2018-12-21 瑞典爱立信有限公司 音频编码中的后量化增益校正
JP5648123B2 (ja) 2011-04-20 2015-01-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声音響符号化装置、音声音響復号装置、およびこれらの方法
JP6265414B2 (ja) * 2011-06-28 2018-01-24 日本電気株式会社 映像符号化装置及び映像復号装置
BR112014001016A2 (pt) * 2011-07-18 2017-02-21 Thomson Licensing método e dispositivo para codificar um vetor de orientação de um componente conectado, método e dispositivo de decodificação correspondente e meio de armazenagem que carrega tais dados codificados
US9071825B2 (en) * 2012-04-24 2015-06-30 Tektronix, Inc. Tiling or blockiness detection based on spectral power signature
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
ES2753228T3 (es) 2012-11-05 2020-04-07 Panasonic Ip Corp America Dispositivo de codificación de audio de voz, dispositivo de decodificación de audio de voz, procedimiento de codificación de audio de voz y procedimiento de decodificación de audio de voz
EP2919232A1 (en) * 2014-03-14 2015-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and method for encoding and decoding
RU2712125C2 (ru) * 2015-09-25 2020-01-24 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Кодер и способ кодирования аудиосигнала с уменьшенным фоновым шумом с использованием кодирования с линейным предсказанием

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816195A (ja) * 1994-06-30 1996-01-19 Samsung Electron Co Ltd ディジタルオーディオ符号化方法及び装置
JPH0918348A (ja) * 1995-06-28 1997-01-17 Graphics Commun Lab:Kk 音響信号符号化装置及び音響信号復号装置
JPH0934493A (ja) * 1995-07-20 1997-02-07 Graphics Commun Lab:Kk 音響信号符号化装置、音響信号復号装置および音響信号処理装置
JPH09214346A (ja) * 1996-02-08 1997-08-15 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH09261066A (ja) * 1996-03-27 1997-10-03 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH09261068A (ja) * 1996-03-27 1997-10-03 Toshiba Corp データ圧縮/復号/伝送/受信/記録/再生の方法と装置
JPH11242499A (ja) * 1997-08-29 1999-09-07 Toshiba Corp 音声符号化/復号化方法および音声信号の成分分離方法
JP2001092499A (ja) * 1999-09-27 2001-04-06 Sanyo Electric Co Ltd オーディオ信号符号化装置およびオーディオ信号符号化方法
JP2002041097A (ja) * 2000-06-02 2002-02-08 Lucent Technol Inc 符号化方法、復号化方法、符号化器、及び復号化器

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6333935A (ja) * 1986-07-29 1988-02-13 Sharp Corp ゲイン/シエイプ・ベクトル量子化器
JPH0332228A (ja) * 1989-06-29 1991-02-12 Fujitsu Ltd ゲイン―シェイプ・ベクトル量子化方式
US5497246A (en) * 1993-07-15 1996-03-05 Asahi Kogaku Kogyo Kabushiki Kaisha Image signal processing device
BE1007616A3 (nl) 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met vereenvoudigde broncodering.
JP3341474B2 (ja) * 1994-07-28 2002-11-05 ソニー株式会社 情報符号化方法及び復号化方法、情報符号化装置及び復号化装置、並びに情報記録媒体
GB9509831D0 (en) * 1995-05-15 1995-07-05 Gerzon Michael A Lossless coding method for waveform data
JP3191257B2 (ja) * 1995-07-27 2001-07-23 日本ビクター株式会社 音響信号符号化方法、音響信号復号化方法、音響信号符号化装置、音響信号復号化装置
JP3283200B2 (ja) * 1996-12-19 2002-05-20 ケイディーディーアイ株式会社 符号化音声データの符号化レート変換方法および装置
US6285796B1 (en) * 1997-11-03 2001-09-04 Intel Corporation Pseudo-fixed length image compression scheme
JP3406275B2 (ja) * 1999-05-21 2003-05-12 日本電信電話株式会社 ディジタル信号符号化方法、ディジタル信号復号化方法、これらの装置及びその各プログラム記録媒体
JP2001094433A (ja) 1999-09-17 2001-04-06 Matsushita Electric Ind Co Ltd サブバンド符号化・復号方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0816195A (ja) * 1994-06-30 1996-01-19 Samsung Electron Co Ltd ディジタルオーディオ符号化方法及び装置
JPH0918348A (ja) * 1995-06-28 1997-01-17 Graphics Commun Lab:Kk 音響信号符号化装置及び音響信号復号装置
JPH0934493A (ja) * 1995-07-20 1997-02-07 Graphics Commun Lab:Kk 音響信号符号化装置、音響信号復号装置および音響信号処理装置
JPH09214346A (ja) * 1996-02-08 1997-08-15 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH09261066A (ja) * 1996-03-27 1997-10-03 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH09261068A (ja) * 1996-03-27 1997-10-03 Toshiba Corp データ圧縮/復号/伝送/受信/記録/再生の方法と装置
JPH11242499A (ja) * 1997-08-29 1999-09-07 Toshiba Corp 音声符号化/復号化方法および音声信号の成分分離方法
JP2001092499A (ja) * 1999-09-27 2001-04-06 Sanyo Electric Co Ltd オーディオ信号符号化装置およびオーディオ信号符号化方法
JP2002041097A (ja) * 2000-06-02 2002-02-08 Lucent Technol Inc 符号化方法、復号化方法、符号化器、及び復号化器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1396841A4 *

Also Published As

Publication number Publication date
EP1396841B1 (en) 2008-02-27
JP2002372995A (ja) 2002-12-26
EP1396841A4 (en) 2006-10-11
DE60225276T2 (de) 2009-03-19
US20050261893A1 (en) 2005-11-24
JP4506039B2 (ja) 2010-07-21
EP1396841A1 (en) 2004-03-10
US7212973B2 (en) 2007-05-01
DE60225276D1 (de) 2008-04-10

Similar Documents

Publication Publication Date Title
WO2002103685A1 (fr) Appareil et procede de codage, appareil et procede de decodage et programme
US7620554B2 (en) Multichannel audio extension
KR100818268B1 (ko) 오디오 데이터 부호화 및 복호화 장치와 방법
JP3336617B2 (ja) 信号符号化又は復号化装置,及び信号符号化又は復号化方法,並びに記録媒体
CN106941003B (zh) 能量无损编码方法和设备以及能量无损解码方法和设备
CN102656628B (zh) 优化的低吞吐量参数编码/解码
USRE46082E1 (en) Method and apparatus for low bit rate encoding and decoding
WO1998000837A1 (fr) Procedes de codage et de decodage de signaux audio, et codeur et decodeur de signaux audio
JP2005049889A (ja) オーディオ信号コーディング中にノイズ置換を信号で知らせる方法
JP2009515212A (ja) オーディオ圧縮
WO1995001680A1 (fr) Dispositif de codage de signaux numeriques, son dispositif de decodage, et son support d'enregistrement
JP2009510514A (ja) マルチチャネルオーディオ信号の符号化/復号化方法及び装置
JPH07336232A (ja) 情報符号化方法及び装置、情報復号化方法及び装置、並びに情報記録媒体
EP1905034A1 (en) Virtual source location information based channel level difference quantization and dequantization method
WO2003098602A1 (fr) Procede et dispositif de codage de signaux acoustiques, procede et dispositif de decodage de signaux acoustiques, programme et dispositif d'affichage d'image de support d'enregistrement
KR100352351B1 (ko) 정보부호화방법및장치와정보복호화방법및장치
JP2022509440A (ja) 空間オーディオパラメータの符号化及び対応する復号の決定
KR100952065B1 (ko) 부호화 방법 및 장치, 및 복호 방법 및 장치
JP3475985B2 (ja) 情報符号化装置および方法、情報復号化装置および方法
US7181079B2 (en) Time signal analysis and derivation of scale factors
JPH07183857A (ja) 伝送システム
JPH09130260A (ja) 音響信号の符号化装置及び復号化装置
JP2004246038A (ja) 音声楽音信号符号化方法、復号化方法、符号化装置、復号化装置、符号化プログラム、および復号化プログラム
JPH0990989A (ja) 変換符号化方法および変換復号化方法
JPH09135173A (ja) 符号化装置および符号化方法、復号化装置および復号化方法、伝送装置および伝送方法、並びに記録媒体

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2002733479

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10344624

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2002733479

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2002733479

Country of ref document: EP