WO1995001680A1 - Dispositif de codage de signaux numeriques, son dispositif de decodage, et son support d'enregistrement - Google Patents

Dispositif de codage de signaux numeriques, son dispositif de decodage, et son support d'enregistrement Download PDF

Info

Publication number
WO1995001680A1
WO1995001680A1 PCT/JP1994/001056 JP9401056W WO9501680A1 WO 1995001680 A1 WO1995001680 A1 WO 1995001680A1 JP 9401056 W JP9401056 W JP 9401056W WO 9501680 A1 WO9501680 A1 WO 9501680A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
component
encoding
decoding
components
Prior art date
Application number
PCT/JP1994/001056
Other languages
English (en)
French (fr)
Inventor
Kyoya Tsutsui
Mito Sonohara
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to PL94307740A priority Critical patent/PL173718B1/pl
Priority to DE69428030T priority patent/DE69428030T2/de
Priority to RU95106457A priority patent/RU2131169C1/ru
Priority to EP94919822A priority patent/EP0663739B1/en
Priority to BR9405445-2A priority patent/BR9405445A/pt
Priority to US08/392,756 priority patent/US5765126A/en
Priority to JP50340095A priority patent/JP3721582B2/ja
Priority to PL94322680A priority patent/PL174314B1/pl
Publication of WO1995001680A1 publication Critical patent/WO1995001680A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B14/00Transmission systems not characterised by the medium used for transmission
    • H04B14/02Transmission systems not characterised by the medium used for transmission characterised by the use of pulse modulation
    • H04B14/04Transmission systems not characterised by the medium used for transmission characterised by the use of pulse modulation using pulse code modulation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/66Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission
    • H04B1/667Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission for reducing bandwidth of signals; for improving efficiency of transmission using a division in frequency subbands
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band

Definitions

  • the present invention encodes a digital signal such as input digital data by high-efficiency encoding.
  • BACKGROUND ART Conventionally, there have been various methods for high-efficiency coding of signals such as audio and voice, but a typical method is to block audio signals on a time axis without blocking in a certain unit time.
  • Sub-band coding which is a non-blocking frequency band division method that divides and divides a signal into frequency bands, and blocks signals on the time axis in a certain unit time and converts each block.
  • a so-called conversion coding which is a block frequency band division method in which the signal is converted into a signal on the frequency axis (spectrum conversion), divided into a plurality of frequency bands, and encoded for each band, can be cited.
  • the above-mentioned band division coding and conversion code In this case, for example, after performing band division by the above-described band division coding, a signal for each band is converted to a signal on the frequency axis. Then, the spectrum is converted into a spectrum, and coding is performed for each band subjected to the spectrum conversion.
  • a filter for band division used in the above-mentioned band division coding or the above-mentioned combination high-efficiency coding method for example, a so-called
  • ICASSP 83 BOSTON Polyphase Quadrature filters-A new subband coding technique Joseph H. Rothweiler describes a filter division method of equal bandwidth.
  • an input audio signal is divided into blocks in a predetermined unit time (frame), and a discrete Fourier transform (DFT), a cosine transform (DCT), a modi?
  • DFT discrete Fourier transform
  • DCT cosine transform
  • MDCT DCT transformation
  • the band in which the quantization noise is generated can be controlled, and the properties such as the masking effect are used.
  • quantization is performed here. If the normalization is performed for each band beforehand, for example, using the maximum value of the absolute value of the signal component in that band, more efficient coding can be performed.
  • a frequency division width for quantizing each frequency component obtained by dividing the frequency band for example, band division is performed in consideration of human auditory characteristics. That is, an audio signal may be divided into a plurality of bands (for example, 25 bands) with a bandwidth such that the higher the band generally called the critical band, the wider the bandwidth.
  • a predetermined bit allocation for each band or an encoding by an adaptive bit allocation (bit allocation) for each band is required. Done. For example, when the coefficient data obtained by the MDCT processing is encoded by the bit allocation, the MDCT coefficient data of each band obtained by the MDCT processing of each block is calculated as follows. Encoding will be performed with the adaptive number of allocated bits.
  • bit allocation is performed based on the signal size for each band.
  • the quantization noise spectrum becomes flat and the noise energy is minimized, but the actual noise sensation is not optimal because the masking effect is not used in terms of hearing.
  • ICASSP 1980 The critical band coder --digital encoding of the perceptual requirements of the auditory system .A. Kransner MIT uses auditory masking. It describes a technique for obtaining a required signal-to-noise ratio for each band and performing fixed bit allocation. However, in this method, even when the characteristics are measured with a sine wave input, the characteristic values are not so good because the bit allocation is fixed.
  • the conventional signal encoding device will be described with reference to FIGS. Will be explained.
  • the acoustic signal waveform supplied via the terminal 100 is converted into a signal frequency component by the conversion circuit 101, and then each component is coded by the signal component coding circuit 102. Then, a code sequence is generated by the code sequence generation circuit 103 and output from the terminal 104.
  • FIG. 13 shows a specific configuration of the conversion circuit 101 of FIG.
  • the signal supplied via terminal 200 (the signal via terminal 100 in FIG. 12) is divided into three signals by two-stage band division filters 201 and 202. Divided into bands.
  • the band division filter 201 the signal passing through the terminal 200 is thinned out to 12, and in the band division filter 202, one of the signals thinned out to 12 by the above band division filter 201 is further processed. It is decimated to 1 (the signal at terminal 2000 is decimated to 1/4). That is, the bandwidth of the two signals from the band division filter 202 is 1Z4, which is the bandwidth of the signal from the terminal 200.
  • the signals of each band divided into three bands as described above by the band division filters 201 and 202 are respectively forward spectrum transform circuits 203 and 2 for performing spectrum transformation such as MDCT.
  • the spectrum signal component is made by 04 and 205.
  • the outputs of the forward spectrum conversion circuits 203, 204, and 205 are sent to the signal component encoding circuit 102 of FIG.
  • FIG. 14 shows a specific configuration of the signal component encoding circuit 102 of FIG.
  • the output from the signal component encoding circuit 102 supplied to the terminal 300 is supplied to a predetermined band by the normalizing circuit 301. After normalization is performed every time, it is sent to the quantization circuit 303. The signal supplied to the terminal 300 is sent to the quantization accuracy determination circuit 302.
  • the quantization circuit 303 converts the signal from the normalization circuit 301 into a signal based on the quantization accuracy calculated by the quantization accuracy determination circuit 303 from the signal via the terminal 300.
  • the quantization is applied to the data.
  • the output from the quantization circuit 303 is output from the terminal 304 and sent to the code string generation circuit 103 in FIG.
  • the output signal from the terminal 304 includes, in addition to the signal component quantized by the quantization circuit 303, the normalization coefficient information in the normalization circuit 301 and the quantization accuracy.
  • the quantization accuracy information in the decision circuit 302 is also included.
  • FIG. 15 shows a schematic configuration of a decoding device that decodes and outputs an audio signal from the code sequence generated by the coding device having the configuration of FIG. 12. In FIG.
  • each signal component is extracted from the code string generated by the configuration shown in FIG. 12 and supplied by the code string decomposition circuit 401. From these codes, each signal component is restored by a signal component decoding circuit 402, and then an inverse conversion corresponding to the conversion of the conversion circuit 101 in FIG. 12 is performed by an inverse conversion circuit 403. Will be applied. As a result, an acoustic waveform signal is obtained, and this acoustic waveform signal is output from the terminal 404.
  • FIG. 16 shows a specific configuration of the inverse conversion circuit 403 in FIG.
  • the configuration in Fig. 16 corresponds to the configuration example of the conversion circuit shown in Fig. 13.
  • the signals supplied from the signal component decoding circuit 402 via the terminals 501, 502, and 503 are the inverse signals corresponding to the forward spectrum conversion in FIG. 13, respectively.
  • the conversion is performed by an inverse spectrum conversion circuit 504, 505, 506 which performs the spectrum conversion.
  • the signals in each band obtained by these inverse spectrum conversion circuits 504, 505, 506 are synthesized by a two-stage band synthesis filter.
  • the outputs of the inverse spectrum conversion circuits 505 and 506 are sent to the band combining filter 507 to be combined, and the output of the band combining filter 507 is combined with the above-mentioned inverse spectrum.
  • the output of the conversion circuit 504 is synthesized by the band synthesis filter 508.
  • the output of the band synthesis filter 508 will be output from terminal 509 (terminal 404 in Fig. 15) o
  • FIG. 17 is a diagram for describing an encoding method conventionally performed in the encoding apparatus shown in FIG.
  • the spectrum signal was obtained by the conversion circuit shown in Fig. 13.
  • Fig. 17 shows that the level of the absolute value of the spectrum signal obtained by MDCT is converted to a dB value. It is shown.
  • the input signal is converted into 64 spectrum signals for each predetermined time block, which corresponds to five predetermined bandwidths indicated by b1 to b5 in the diagram of FIG. Normalization and quantization are performed collectively for each group (this is called an encoding unit here).
  • the bandwidth of each coding unit is narrow on the low frequency side and wide on the high frequency side, so that it is possible to control the generation of quantization noise that matches the auditory characteristics.
  • the frequency component is quantized.
  • the band to be converted is fixed.
  • Many bits must be allocated to the many spectra to which they belong.
  • the normalization is performed collectively for each predetermined band, for example, in the band b3 in the figure where the signal includes a tonal component
  • the numerical value is normalized based on the large normalization coefficient value determined by the tone component.
  • noise included in a tone-type acoustic signal in which spectral energy is concentrated at a specific frequency is much more audible than noise added to an acoustic signal whose energy is distributed smoothly over a wide frequency band. It is easy to touch and it is a big obstacle to hearing.
  • the spectral component having a large energy that is, the tone component
  • the spectral component is returned to a waveform signal on the time axis, and the preceding and following blocks are blocked.
  • the distortion between blocks becomes large, and when combined with the waveform signal of an adjacent time block, large connection distortion occurs, which again causes a great hearing problem.
  • quantization must be performed with a sufficient number of bits in order to encode the tone component, but if the quantization accuracy is determined for each predetermined band as described above, the tone It is necessary to assign a large number of bits to a large number of spectrums in the encoding unit including the component and perform quantization, which results in poor encoding efficiency. Therefore, conventionally, the sound quality is not degraded especially for a tonal sound signal. It has been difficult to increase the coding efficiency.
  • the present invention relates to a signal encoding device capable of increasing the encoding efficiency without deteriorating the sound quality, particularly for a tonal sound signal, and a signal encoding device and the like.
  • the purpose of the present invention is to provide a recording medium on which the signal processed in step 1 is recorded and a signal decoding device for decoding an encoded signal reproduced from the recording medium or transmitted from the signal encoding device. is there
  • a signal encoding apparatus includes: a conversion unit configured to convert an input signal into a frequency component; and a first unit configured to convert an output of the conversion unit into a tone component.
  • Means, and the first encoding means encodes each signal component of the first signal into a different code length.
  • the signal encoding device of the present invention performs the following. That is, the first encoding means normalizes the amplitude information of each tonic component of the first signal by a normalization coefficient when encoding the first signal. Encoding from.
  • each frequency component of each tone component is encoded by a plurality of conversion rules. Which one of the plurality of conversion rules is used for coding is determined by the relative positional relationship between the maximum frequency component of the tonic component and each frequency component on the frequency axis.
  • the above conversion rule is applied to the maximum frequency component.
  • the conversion rule is to convert those with larger amplitude value information to shorter codes.
  • a conversion rule applied to each of the other frequency components of the maximum frequency component is to convert a code having smaller amplitude value information into a shorter code.
  • the input signal is a sound signal.
  • the first encoding means of the signal encoding device of the present invention encodes the amplitude information of each tone component of the first signal by normalizing and quantizing the amplitude information with a normalization coefficient, and encodes the code. For this purpose, the amplitude information of the maximum frequency component is omitted.
  • the signal encoding device of the present invention performs the following. That is, the separating means separates the first signal while allowing the tone components to overlap each other on the frequency axis. The smaller the value of the above-mentioned normalization coefficient, the more accurately it is set.
  • the input signal is also an acoustic signal.
  • the recording medium of the present invention is a medium in which a first signal composed of tone components coded to different lengths and a second signal composed of other components are recorded.
  • the recording medium of the present invention is as follows. That is, the amplitude information of each tone component of the first signal is encoded by being normalized by the normalization coefficient. Further, each frequency component of each tone component is encoded by a plurality of conversion rules. Which of the plurality of conversion rules is used for coding is determined by the relative positional relationship between the maximum frequency component of the tone component and each frequency component on the frequency axis.
  • the conversion rule applied to the maximum frequency component is as follows: It converts a code with a large amplitude value into a shorter code.
  • the conversion rule applied to each of the other frequency components of the local maximum frequency component is to convert a code having smaller amplitude value information into a shorter code.
  • the recorded signal is an acoustic signal.
  • the recording medium of the present invention records a first signal composed of a tone component and a second signal composed of other components, and normalizes and quantizes the amplitude information of the tone component of the first signal.
  • information other than information obtained by normalizing and quantizing the amplitude information of the maximum frequency component is recorded.
  • the tone component of the first signal is recorded overlapping on the frequency axis.
  • the signal decoding apparatus of the present invention comprises a first decoding means for decoding a first signal composed of tone components each having a different length, and a second decoding means composed of other components.
  • Second decoding means for decoding the signals of the respective signals, and combining and inverse converting means for synthesizing the respective signals and performing an inverse conversion, or inversely converting the respective signals and synthesizing the respective signals.
  • the signal decoding device of the present invention is as follows. That is, the amplitude information of each tone component of the first signal is normalized by a normalization coefficient and encoded. Each frequency component of each tone component is encoded by a plurality of conversion rules.
  • Which one of the plurality of conversion rules is used for encoding is determined by the frequency of the maximum frequency component of the tone component and each frequency component. It is determined by the relative positional relationship on several axes.
  • the conversion rule applied to the local maximum frequency component is to convert a code having larger amplitude value information into a shorter code.
  • the conversion rule applied to components other than the local maximum frequency component is to convert a code having smaller amplitude value information into a shorter code.
  • the output signal is an acoustic signal.
  • the signal decoding apparatus of the present invention decodes a first signal composed of an encoded tone component without including information obtained by normalizing and quantizing the amplitude information of the maximum frequency component.
  • the tone component of the first signal is coded redundantly on the frequency axis. Further, the smaller the value of the normalization coefficient for the above-mentioned normalization, the more accurately the normalization coefficient is set.
  • the present invention separates and encodes an input audio signal into a signal component in which energy is concentrated at a specific frequency (tone component) and a component in which energy is smoothly distributed over a wide band (components other than tone component).
  • tone component a component in which energy is smoothly distributed over a wide band
  • more efficient encoding is realized by effectively applying a variable-length code to a tone component signal.
  • the spectral coefficient having the maximum absolute value is encoded, for example, by encoding only positive and negative code information, thereby realizing more efficient encoding.
  • FIG. 2 is a block circuit diagram showing a schematic configuration of the decoding device according to the present invention.
  • FIG. 3 is a flowchart showing a processing flow in the signal component separation circuit according to the present invention.
  • FIG. 4 is a diagram for explaining separation of tone components in signal encoding according to the present invention.
  • FIG. 5 is a diagram showing a noise component obtained by removing a tonal component from an original spectrum signal in the signal encoding of the present invention.
  • FIG. 6 is a diagram illustrating an example of a spectrum signal.
  • FIG. 7 is a diagram showing a signal after subtracting a signal obtained by encoding and decoding one tone component from the spectrum signal of FIG.
  • FIG. 8 is a diagram for explaining a conversion rule for a spectrum of a tone component in the present invention.
  • FIG. 9 is a block diagram showing a specific configuration of the tone component encoding circuit of FIG.
  • FIG. 10 is a block circuit diagram showing a specific configuration of the tone component decoding circuit of FIG.
  • FIG. 11 is a diagram for explaining recording of a code string obtained by encoding according to the signal encoding of the present invention.
  • FIG. 12 is a block circuit diagram showing a schematic configuration of a conventional encoding device.
  • FIG. 13 is a block circuit diagram showing a specific configuration of a conversion circuit applied to the present invention and a conventional encoding device.
  • FIG. 14 is a block circuit diagram showing a specific configuration of a signal component encoding circuit applied to the present invention and a conventional encoding device.
  • FIG. 15 is a block circuit diagram showing a schematic configuration of a conventional decoding device.
  • FIG. 16 is a block circuit diagram showing a specific configuration of an inverse conversion circuit applied to the present invention and a conventional decoding device.
  • FIG. 17 is a diagram for explaining an encoding method according to the related art.
  • FIG. 18 is a block circuit diagram showing another example of the synthesis inverse transform unit included in the decoding device according to the present invention.
  • FIG. 19 is a block circuit diagram showing another embodiment of the encoding device according to the present invention.
  • FIG. 2 OA is a code table showing a conversion rule for the maximum spectrum coefficient.
  • FIG. 20B is a code table showing conversion rules of peripheral spectrum coefficients when the same conversion rule is used for all peripheral spectrum coefficients.
  • FIG. 1 shows a schematic configuration of a signal encoding device according to an embodiment of the present invention.
  • an acoustic waveform signal is supplied to a terminal 600.
  • This acoustic signal waveform is converted to a signal frequency component by the conversion circuit 601, and then sent to the signal component separation circuit 602.
  • the signal frequency component obtained by the conversion circuit 601 is divided into a tone component having a steep spectrum distribution and a signal frequency component other than that, that is, a flat component. It is separated into a noise component having a strong spectral distribution. Of these separated frequency components, the tone component having the steep spectrum distribution is the tone component encoding circuit 603, and the other signal frequency components are the noise components.
  • Each is encoded by the component encoding circuit 604.
  • the signal output from the tone component encoding circuit 603 is further subjected to variable length encoding by the variable length encoding circuit 610.
  • the output from the variable-length encoding circuit 610 and the noise component encoding circuit 604 is output as a code string generated by a code string generation circuit 605.
  • the ECC encoder 606 adds an error collection code to the code string from the code string generation circuit 605.
  • the output from the ECC encoder 606 is modulated by the EFM circuit 607 and supplied to the recording head 608.
  • the recording head 608 records the code string output from the EFM circuit 607 on the disk 609.
  • the encoding according to the present invention works particularly effectively when energy is concentrated at a specific frequency. It is convenient to adopt a method of converting the frequency components into frequency components by the above-described spectrum conversion that can be obtained with a relatively small amount of calculation.
  • tone component encoding circuit 603 and the noise component encoding circuit 604 can be basically realized by the same configuration as that of FIG. 14 described above.
  • FIG. 2 shows a schematic configuration of a signal decoding device according to an embodiment of the present invention for decoding a signal encoded by the encoding device of FIG.
  • the code string reproduced from the disk 609 via the reproduction head 708 is supplied to the EFM demodulation circuit 709.
  • the EFM demodulation circuit 709 demodulates the input code string.
  • the demodulated code string is supplied to the ECC decoder 710, where error correction is performed.
  • the code string decomposition circuit 701 recognizes which part of the code string is a tone component code based on the number of tone component information in the error-corrected code string, and converts the input code string into a tone. And a noise component code. Further, the code string separating circuit 701 separates the positional information of the tone component from the input code string, and outputs the information to the synthesis circuit 704 at the subsequent stage.
  • the above tone component code is a variable length decoding circuit 7.
  • tone component decoding circuit 7 After variable length decoding by 1 5, tone component decoding circuit 7 0
  • the noise code is sent to the noise component decoding circuit 703, where the dequantization and normalization are canceled and decoded. Then, these tone component decoding circuits 720 and noise characteristics
  • the decoded signal from the component decoding circuit 703 is supplied to a synthesis circuit 704 that performs synthesis corresponding to the separation in the signal component separation circuit 602 in FIG.
  • the combining circuit 704 converts the decoded signal of the tonic component into a predetermined signal of the decoded signal of the noisy component based on the positional information of the tonic component supplied from the code string separating circuit 701.
  • the noise component and the tone component are synthesized on the frequency axis by adding to the position of.
  • the synthesized decoded signal is converted by an inverse conversion circuit 705 that performs an inverse conversion corresponding to the conversion by the conversion circuit 601 in FIG. It is returned to the upper waveform signal.
  • the output waveform signal from the inverse conversion circuit 705 is output from the terminal 707.
  • the composition inverse transformation unit 711 in FIG. 2 has the configuration shown in FIG.
  • the inverse transform circuit 712 constituting the synthesis inverse transform section 711 shown in FIG. 18 converts the decoded signal of the noise component on the frequency axis from the noise component decoding circuit 703 on the time axis. Inversely converted to a noise component signal.
  • the inverse transform circuit 713 converts the decoded signal of the tonal component from the tonal component decoding circuit 702 into the frequency axis indicated by the position information of the tonal component supplied from the code sequence separation circuit 71. And inversely transform it to generate a tonal component signal on the time axis.
  • the synthesizing circuit 714 combines the noise component signal on the time axis from the inverse transform circuit 712 with the tone component signal on the time axis from the inverse transform circuit 713 to form the original waveform signal. To play.
  • FIG. 3 shows a specific processing flow for separating the tone component in the signal component separation circuit 62 of the encoding apparatus in FIG.
  • I indicates the number of the spectrum signal
  • N indicates the total number of spectrum signals
  • P and R indicate predetermined coefficients.
  • the absolute value of a certain spectral signal is locally larger than that of the other spectral component
  • the absolute value of the absolute value of the spectral component is the time block (in the case of the vector transformation).
  • the absolute value of the spectrum signal in the block is larger than a predetermined value compared to the maximum value of the spectrum signal, and furthermore, the spectrum and the neighboring spectrum (for example, the spectrum on both sides) ), If the sum of the energies indicates a predetermined ratio or more to the energy within a predetermined band including the spectrum, the spectrum signal and, for example, the spectrum signal on both sides thereof Is considered to be a tone component.
  • the predetermined band for comparing the ratio of the energy distribution can be narrow in the low band and wide in the high band, for example, in accordance with the critical bandwidth in consideration of the characteristics of hearing.
  • step S1 the maximum spectrum absolute value is substituted for a variable AO, and in step S2, the number I of the spectrum signal is set to 1.
  • step S3 the absolute value of a certain spectrum in a certain time block is assigned to a variable A.
  • step S4 it is determined whether or not the above-mentioned spectral absolute value is a local maximum absolute value vector that is larger than other spectral components when viewed locally, and is not a local maximum absolute value vector. If (No), the process proceeds to step S10, and if it is the maximum absolute value vector (Yes), the process proceeds to step S5.
  • step S5 the variable A of the maximum absolute value vector and the variable A of the maximum vector absolute value in the time block including the maximum absolute value vector. And a coefficient P indicating a predetermined size Perform a size comparison (AZA> P), then AZA. If is greater than P (Ye s), go to step S6, AZA. If is equal to or less than P (NO), the flow proceeds to step S10.
  • step S6 the energy value of the spectrum adjacent to the spectrum of the absolute value of the spectrum (maximum absolute value spectrum) (for example, the sum of the energies of the spectra on both sides) Is substituted into a variable X, and in the next step S7, the energy value in a predetermined band including the maximum absolute value spectrum and its neighboring spectrum is substituted into a variable Y.
  • maximum absolute value spectrum for example, the sum of the energies of the spectra on both sides
  • step S8 a magnitude comparison (XZY> R) of a ratio of the variable X of the energy value to the variable Y of the energy value in a predetermined band and a coefficient R indicating a predetermined ratio is performed.
  • R a magnitude comparison of a ratio of the variable X of the energy value to the variable Y of the energy value in a predetermined band and a coefficient R indicating a predetermined ratio.
  • step S9 the energy in the local absolute value spectrum and the neighboring spectrum show a predetermined ratio or more to the energy in a predetermined band including those spectra.
  • the signal of the maximum absolute value spectrum and the signals of, for example, two low-frequency and two high-frequency sides adjacent to each other are regarded as tone components, and the fact is registered. .
  • Signal component separation The circuit 602 supplies the frequency component determined to be a tone component by the above-described processing to the tone component encoding circuit 603, and uses the other frequency components as noise components as a noise component encoding circuit. Supply to 604. Further, the signal component separation circuit 602 supplies the number of frequency information determined to be a tone component and its position information to the code string generation circuit 605.
  • FIG. 4 shows an example in which the tone component is separated from the frequency component as described above.
  • TC A, TCB, TCC it is four tone characteristic components indicated by TC D have been extracted.
  • the tone components are concentrated and distributed in a small number of spectrum signals as in the example of FIG. 4, even if these components are quantized with high accuracy, there are too many as a whole. The number of bits is not required. For this reason, the encoding efficiency can be improved by normalizing and quantizing the tone components once, but since the number of the spectrum signals constituting the tone components is relatively small, the normalization is performed.
  • the apparatus may be simplified by omitting quantization and requantization processing.
  • FIG. 5 shows an example in which the noise component is obtained when the tone component is removed from the original spectrum signal (to 0).
  • the tone component is removed (set to 0) from the original spectrum signal in each of the bands b1 to b5 as described above.
  • the normalization coefficient in each coding unit has a small value, and therefore, the quantization noise generated even with a small number of bits can be reduced.
  • efficient encoding can be performed by separating the tone component and setting the signal around the tone component and the signal around the tone component to 0, and then encoding the noise component. It is also possible to take a method of encoding a signal obtained by subtracting a decoded signal obtained by encoding a tone component from a torque signal.
  • a signal encoding apparatus will be described with reference to FIG.
  • the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.
  • the spectrum signal obtained by the conversion circuit 601 is supplied to the tonal component extraction circuit 802 via the switch 801 controlled by the switch control circuit 808.
  • the tone component extraction circuit 802 determines the tone component by the processing of FIG. 3 described above, and supplies only the determined tone component to the tone component encoding circuit 603. Further, the tone component extraction circuit 802 outputs the number of tone component information and the center position information thereof to the coded sequence generation circuit 605.
  • the tone component encoding circuit 603 performs normalization and quantization on the input tone component, and converts the normalized and quantized tone component into a variable length encoding circuit 610 and a local decoder. 804.
  • the variable-length encoding circuit 610 performs variable-length encoding on the normalized and quantized tone component, and supplies the obtained variable-length code to the code sequence generating circuit 605.
  • the local decoder 804 dequantizes and denormalizes the normalized and quantized tone component, and decodes the original tone component signal. However, at this time, the decoded signal contains quantization noise.
  • the output from the local decoder 804 is supplied to the adder 805 as the first decoded signal.
  • adder 8 0 5 is supplied with the original spectrum signal from the conversion circuit 61 through a switch 806 controlled by a switch control circuit 808.
  • the adder 805 subtracts the first decoded signal from the original spectrum signal and outputs the first difference signal.
  • the switch controlled by the switch control circuit 808 uses the first difference signal as a noise component.
  • the signal is supplied to the noise component encoding circuit 604 via 807.
  • the first difference signal is supplied to the tone component extraction circuit 802 via the switch 801.
  • the tone component extraction circuit 802, the tone component encoding circuit 603, and the local decoder 804 perform the same processing as described above, and the obtained second decoded signal is supplied to the adder 805. You.
  • the first difference signal is supplied to the adder 805 through the switch 806.
  • the adder 805 subtracts the second decoded signal from the first differential signal and outputs a second differential signal.
  • the second difference signal is used as the noise component via the switch 807 to generate the noise component. It is supplied to the encoding circuit 604.
  • the same processing as described above is performed in the tonal component extracting circuit 802, the tonal component encoding circuit 603, and the local decoder 8. 0 4, performed by adder 805.
  • the switch control circuit 808 holds a threshold value for the number of tone component information, and extracts the tone component when the number of tone component information obtained from the tone component extraction circuit exceeds this threshold. Switch 807 to terminate the encoding and decoding processes. Control. Further, when the tone component is no longer extracted in the tone component encoding circuit 603, the extraction, encoding, decoding, and difference processing of the tone component can be terminated.
  • FIG. 6 and FIG. 7 are diagrams for explaining such a method.
  • FIG. 7 is obtained by subtracting a signal obtained by encoding and decoding the tone component of ⁇ from the spectrum signal of FIG.
  • the encoding accuracy of the spectrum signal can be improved, and this is repeated. By doing so, highly accurate encoding can be performed.
  • the coding accuracy can be sufficiently high even if the upper limit of the number of bits for quantizing the tone component is set low, and accordingly, the number of quantization bits is large.
  • the number of bits for recording the data can be reduced.
  • the method of extracting the tonal components in multiple stages as described above is not limited to the case where a signal equivalent to that obtained by encoding and decoding the tonal components is subtracted from the original spectrum signal.
  • the present invention is also applicable when the spectrum signal of the extracted tonal component is set to 0.
  • the expression such as “signal from which tonal component is separated” and the like include both.
  • efficient encoding can be realized by decomposing the original waveform signal into tone components and noise components and performing encoding.
  • efficient encoding can be performed.
  • each tone component has a spectral coefficient at which the absolute value is maximized. (This is called the maximum spectral coefficient here) and the surrounding spectral coefficients (here called the peripheral spectral coefficients) concentrate energy.
  • the distribution of values when quantizing each coefficient is biased, and the relative position on the frequency axis is between the maximum spectrum coefficient and the peripheral spectrum coefficient.
  • the manner of distribution varies greatly depending on the relationship. That is, if the spectrum coefficients constituting each tone component are normalized by a normalization coefficient determined by the maximum spectrum coefficient, that is, for example, each spectrum coefficient constituting the tone component is converted to the corresponding tone coefficient.
  • the maximum spectrum coefficient after quantization becomes a value close to +1 or -11, whereas the tone component is originally the spectrum. Since the torque coefficient has a characteristic of rapidly decreasing around the maximum spectrum coefficient, the peripheral spectrum coefficients after quantization are more distributed to values close to zero.
  • DA Huf fman A Method f or Construction on Minimum Redundancy Codes, Proc.I. RE, 40, p. 1098 (1952) Can be efficiently encoded by a so-called variable length code that assigns
  • each tone component is separated into a maximum spectrum coefficient and a peripheral spectrum coefficient, and a different variable length code is applied to each of them. It tries to realize efficient coding.
  • the surrounding spectrum coefficients are normalized and quantified.
  • the distribution of values in the case of digitization is greatly affected by the relative positional relationship between the surrounding spectrum coefficient and the maximum spectrum coefficient on the frequency axis. Therefore, the peripheral spectrum coefficient is further classified into several groups according to the relative position on the frequency axis with respect to the maximum spectrum coefficient, and a different variable length code is set for each classified group.
  • the conversion may be performed according to the conversion rule.
  • a method of classifying the relative position a method of performing classification based on an absolute value of a difference on a frequency axis from the maximum spectrum coefficient can be used.
  • Conversion to variable-length code is performed using a total of three conversion rules, the conversion rules for the peripheral spectrum coefficients and the conversion rules for the peripheral spectrum coefficients shown as ECa and ECe in the figure. Can be.
  • all the peripheral spectrum coefficients may be subjected to variable-length coding according to the same conversion rule.
  • FIG. 20A shows an example of a code table that shows the conversion rule for the maximum spectrum coefficient.
  • FIG. 20B shows an example of a code table showing the conversion rules of the peripheral spectrum coefficients when the same conversion rule is used for all the peripheral spectral coefficients.
  • the maximum spectrum coefficient after normalization and quantization that is, the quantization value of the maximum spectrum is a value close to +1 or 11 as described above. Therefore, as shown in FIG. 20A, these +1 and ⁇ 1 have shorter code lengths than the code lengths assigned to other values. By assigning 00 and 01, the maximum spectrum coefficient can be efficiently encoded.
  • the peripheral spectrum coefficient after normalization and quantization that is, the quantized value of the peripheral spectrum is close to 0 as described above. Therefore, as shown in FIG. 20, if 0 is assigned to this 0, which is a shorter code length than the code lengths assigned to other values, the peripheral spectrum coefficient can be efficiently obtained. Can be encoded.
  • a plurality of code tables for the maximum spectrum coefficients and a plurality of code tables for the peripheral spectrum coefficients are provided. If the corresponding code table is selected according to the determined quantization precision, more efficient coding can be performed.
  • FIG. 9 shows a specific example of the variable length coding circuit 6 10 of FIG.
  • the tone component input to the terminal 800 is classified by the control circuit 801 based on the relative position on the frequency axis with the maximum spectrum component. Is sent to one of the peripheral coefficient encoding circuit 802, the peripheral spectral coefficient encoding circuit 803, and the peripheral spectral coefficient encoding circuit 804. Is encoded based on the corresponding conversion rule. The encoded output from each of the encoding circuits 802, 803, 804 is output from an output terminal 805 via a control circuit 801.
  • FIG. 10 shows a specific example of the variable length decoding circuit 715 of FIG.
  • the tone component inputted to the input terminal 900 is The codes are divided by the control circuit 91 in accordance with the classification in FIG. 9 above, and the corresponding maximum spectrum coefficient decoding circuit 9 02 and peripheral spectrum coefficient decoding circuit 9 0 3 and sent to one of the peripheral spectrum coefficient decoding circuits 9 04, and are decoded by each of these circuits based on the inverse conversion rule corresponding to the above-described conversion rule.
  • the decoded output from each of the decoding circuits 902, 903, 904 is output from an output terminal 905 via a control circuit 901.
  • FIG. 11 shows an example in which the spectral signal of FIG. 4 is encoded by the encoding device of the present embodiment. This code string is recorded on the recording medium.
  • the number of tone component information t nc (for example, 4 in the example of FIG. 11) is recorded on the recording medium
  • noise component information ncnc 2 , nc 3, nc 4 , and nc 5 are recorded in this order.
  • the tonality component information tc A, tc B , tcc, and tc D have center position information CP (for example, 15 ton in the case of the tonality component tc B ) indicating the position of the center spectrum of the tonality component. ), Quantization accuracy information indicating the number of bits for quantization (for example, 6 in the case of the tone component tc B ), and normalization coefficient information, after being normalized and quantized, variable-length coding was done
  • each signal component information SC e , SC b , S Cc, SC d , and SC e is recorded together with each signal component information SC e , SC b , S Cc, SC d , and SC e .
  • the conversion rule for variable-length coding is determined for each quantization precision, and the decoding device decodes the variable-length code with reference to the quantization precision information.
  • the quantization accuracy is fixedly determined by the frequency, it is not necessary to record the quantization accuracy information.
  • the position of the center spectrum of each tone component is used as the position information of the tone component, but the lowest frequency spectrum of each tone component is used. Tol position (for example, tonal component
  • quantization accuracy information for example, 2 for noisy nc
  • signal component information S d, SC 2 , ⁇ It is recorded along with the SC 8.
  • the quantization accuracy information is 0, no actual encoding is performed in the encoding unit. If the quantization precision is fixedly determined by the band, it is not necessary to record the quantization precision information.
  • FIG. 11 shows an embodiment of the types and order of information recorded on a recording medium.
  • the signal encoding apparatus of the present embodiment enables efficient encoding by giving the amplitude information of only the maximal spectrum of each tone component only by the normalization coefficient information. ing. That is, the tone component encoding circuit 603 performs normalization and quantization on frequency components of each tone component other than the maximum spectrum. In the tone component encoding circuit 603, normalization and quantization are performed on all tone components including the maximum spectrum, and the code sequence generation circuit in the subsequent stage is performed. It is also possible not to output the quantized value corresponding to the maximum spectrum in the path 605.
  • the signal component information SC C will include only the sign indicating positive or negative.
  • the signal decoding apparatus uses the normalization coefficient. From this, an approximate value of the amplitude information of the maximum spectrum can be obtained. Therefore, for example, when the spectrum information is realized by MDCT, DCT, or the like, the local maximum spectrum can be obtained from the sign indicating the positive or negative and the normalization coefficient information, and the spectrum can be obtained, for example. When the torque information is realized by DFT or the like, the local maximum spectrum can be obtained from only the phase component, and the information obtained by quantizing the amplitude information with respect to the local maximum spectrum can be obtained. Recording can be omitted. This method is particularly effective when the normalization coefficient can be obtained with high accuracy.
  • the accuracy of the normalization coefficient is not sufficient, the accuracy of the maximum spectrum coefficient may not be sufficiently ensured in some cases.
  • this problem can be solved by using a method of extracting a tone component over multiple stages using the configuration shown in FIG. As shown in FIGS. 6 and 7, according to this method, there is a high possibility that a frequency component duplicated on the frequency axis is extracted a plurality of times as a tone component. It is recommended that the normalization coefficient be set non-linearly, for example, by setting it at regular intervals on a logarithmic scale so that the smaller the normalization coefficient, the better the accuracy.
  • the decoding device synthesizes the plurality of frequency components, Even when the accuracy of the two normalization coefficients is not sufficient, a certain degree of accuracy can be ensured. Further, in the above description, description has been made mainly of an example in which an audio signal is encoded by the signal encoding device of the embodiment of the present invention. However, in the encoding of the present invention, encoding of a general waveform signal is also performed. It is possible to apply. However, the encoding according to the present invention is particularly effective in efficiently encoding an audio signal whose tone component has a significant auditory meaning.
  • the disk 609 of the above embodiment can be, for example, a magneto-optical recording medium, an optical recording medium, a phase-change optical recording medium, or the like.
  • a recording medium in place of the disk 609 a semiconductor memory, an IC card, or the like can be used in addition to a tape-shaped recording medium.
  • the input signal is converted into a frequency component, and the converted output is converted into a first component composed of a tonic component.
  • each signal component of the first signal is encoded into a different code length, whereby Of the signals decomposed into noise components and noise components, it is possible to encode the tonal components very efficiently, and to improve the encoding efficiency for the entire signal waveform. Therefore, this pressure If the compressed signal is recorded on a recording medium, the recording capacity can be used effectively, and a good signal, for example, an audio signal can be obtained by encoding a signal obtained by reproducing the recording medium. it can

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

明 細 書 ディジタル信号の符号化装置及びその復号化装置並びに記録媒体 技 術 分 野 本発明は、 高能率符号化によって入力ディジタルデータ等のディ ジタル信号の符号化を行ない、 この符号化されたディジタル信号を 伝送し、 さらに記録再生し、 また符号化されたディジタル信号を復 号化して再生信号を得るディジタルデータ等の情報符号化又は復号 化が適用される信号符号化装置及び信号復号化装置、 さらに符号化 された信号が記録される記録媒体に関する。 背 景 技 術 従来より、 オーディォ或いは音声等の信号の高能率符号化の手法 には種々あるが、 代表的なものとして、 時間軸上のオーディオ信号 等をある単位時間でプロック化しないで複数の周波数帯域に分割し て符号化する非プロック化周波数帯域分割方式である帯域分割符号 化 (サブ ·バンド · コーディ ング: SBC)や、 時間軸の信号をある単 位時間でプロック化してこのプロック毎に周波数軸上の信号に変換 (スペク トル変換) して複数の周波数帯域に分割し、 各帯域毎に符 号化するプロック化周波数帯域分割方式であるいわゆる変換符号化 等を挙げることができる。 また、 上述の帯域分割符号化と変換符号 化とを組み合わせた高能率符号化の手法も考えられており、 この場 合には、 例えば、 上記帯域分割符号化で帯域分割を行った後、 該各 帯域毎の信号を周波数軸上の信号にスぺク トル変換し、 このスぺク トル変換された各帯域毎に符号化を施す。
ここで、 上記帯域分割符号化や上記組合せの高能率符号化の手法 などに用いられる帯域分割用のフィルタとしては、 例えばいわゆる
Q M Fなどのフィル夕があり、 これは例えば 1976 R. E. Crochiere Digital coding of speech in subbands Bel 1 Syst. Tech. J.
Vol.55, No.8 1976に述べられている。
また、 例えば、 ICASSP 83, BOSTON Polyphase Quadrature filters - A new subband coding technique Joseph H. Rothwei ler には等バンド幅のフィル夕分割手法が述べられている。
また、 上述したスぺク トル変換としては、 例えば、 入力オーディ ォ信号を所定単位時間 (フレーム) でブロック化し、 当該ブロック 毎に離散フーリエ変換 (DFT) 、 コサイン変換 (D CT) 、 モデ ィ フアイ ド D CT変換 (MDCT) 等を行うことで時間軸を周波数 軸に変換するようなスペク トル変換がある。 なお、 上記 MD CTに ついては、 ICASSP 1987 Subband/Transf orm Coding Using Filter Bank Designs Based on Time Domain Aliasing Cancellation J. P. Princen A.B.Bradley Univ. of Surrey Royal Melbourne Inst. of Tech. に述べられている。
このように、 フィルタやスぺク トル変換によって帯域毎に分割さ れた信号を量子化することにより、 量子化雑音が発生する帯域を制 御することができ、 マスキング効果などの性質を利用して聴覚的に より高能率な符号化を行うことができる。 また、 ここで量子化を行 う前に、 各帯域毎に、 例えばその帯域における信号成分の絶対値の 最大値で正規化を行うようにすれば、 さらに高能率な符号化を行う ことができる。
また、 周波数帯域分割された各周波数成分を量子化する周波数分 割幅としては、 例えば人間の聴覚特性を考慮した帯域分割が行われ る。 すなわち、 一般に臨界帯域 (クリティカルバンド) と呼ばれて いる高域ほど帯域幅が広くなるような帯域幅で、 オーディォ信号を 複数 (例えば 2 5バンド) の帯域に分割することがある。 また、 こ の時の各帯域毎のデータを符号化する際には、 各帯域毎に所定のビ ッ ト配分或いは、 各帯域毎に適応的なビッ ト割当て (ビッ トァロケ ーシヨン) による符号化が行われる。 例えば、 上記 MDCT処理さ れて得られた係数デ一夕を上記ビッ トァロケーションによって符号 化する際には、 上記各プロック毎の MD CT処理により得られる各 帯域毎の MDCT係数データに対して、 適応的な割当てビッ ト数で 符号化が行われることになる。
ここで上記ビッ ト割当手法としては、 次の 2手法が知られている o すなわち、 例えば、 IEEE Transactions of Accoustics, Speech, and Signal Processing, vol. ASSP-25, No.4, August 1977 では、 各帯域毎の信号の大きさをもとに、 ビッ ト割当を行なっている。 こ の方式では、 量子化雑音スペク トルが平坦となり、 雑音エネルギが 最小となるが、 聴感覚的にはマスキング効果が利用されていないた めに実際の雑音感は最適ではない。
また、 例えば ICASSP 1980 The critical band coder --digital encoding of the perceptual requirements of the auditory system .A. Kransner MITでは、 聴覚マスキングを利用することで 、 各帯域毎に必要な信号対雑音比を得て固定的なビッ ト割当を行う 手法が述べられている。 しかしこの手法ではサイン波入力で特性を 測定する場合でも、 ビッ ト割当が固定的であるために特性値が、 そ れほど良い値とならない。
これらの問題を解決するために、 ビッ ト割当に使用できる全ビッ トが、 各小プロック毎に予め定められた固定ビッ ト割当パターン分 と、 各プロックの信号の大きさに依存したビッ ト配分を行う分とに 分割使用され、 その分割比を入力信号に関係する信号に依存させ、 前記信号のスぺク トルが滑らかなほど前記固定ビッ ト割当パターン 分への分割比率を大きくする高能率符号化装置が EUROPEAN PATENT APPLI CATI ON. Publ i cat i on, number 0 525 809 A 2, Date of publ i cat i on of appl i cat i on 03. 02. 93 Bul let in 93/05において提 案されている。
この方法によれば、 サイン波入力のように、 特定のスペク トルに エネルギが集中する場合にはそのスぺク トルを含むプロックに多く のビッ トを割り当てる事により、 全体の信号対雑音特性を著しく改 善することができる。 一般に、 急峻なスぺク トル成分をもつ信号に 対して人間の聴覚は極めて敏感であるため、 このような方法を用い る事により、 信号対雑音特性を改善することは、 単に測定上の数値 を向上させるばかりでなく、 聴感上、 音質を改善するのに有効であ ビッ ト割り当ての方法にはこの他にも数多くのやり方が提案され ており、 さらに聴覚に関するモデルが精緻化され、 符号化装置の能 力があがれば聴覚的にみてより高能率な符号化が可能になる。
ここで、 図 1 2以降の各図を用いて従来の信号符号化装置につい て説明する。 この図 1 2において、 端子 1 0 0を介して供給され た音響信号波形は変換回路 1 0 1 によって信号周波数成分に変換さ れた後、 信号成分符号化回路 1 0 2によって各成分が符号化され、 符号列生成回路 1 0 3によって符号列が生成され、 端子 1 0 4から 出力される。
図 1 3には、 図 1 2の変換回路 1 0 1の具体的構成を示す。 この 図 1 3において、 端子 2 0 0を介して供給された信号 (図 1 2の端 子 1 0 0を介した信号) が、 二段の帯域分割フィルタ 2 0 1, 2 0 2によって三つの帯域に分割される。 帯域分割フィルタ 2 0 1では 端子 2 0 0を介した信号が 1 2に間引かれ、 帯域分割フィルタ 2 0 2では上記帯域分割フイルク 2 0 1で 1 2に間引かれた一方の 信号がさらに 1 2に間引かれる (端子 2 0 0の信号が 1 / 4に間 引かれるようになる) 。 すなわち、 帯域分割フィルタ 2 0 2からの 2つの信号の帯域幅は、 端子 2 0 0からの信号の帯域幅の 1 Z 4 と なっている。
これら帯域分割フイルク 2 0 1, 2 0 2によって上述のように三 つの帯域に分割された各帯域の信号は、 それぞれ M D C T等のスぺ ク トル変換を行う順スペク トル変換回路 2 0 3 , 2 0 4, 2 0 5に よってスぺク トル信号成分となされる。 これら順スぺク トル変換回 路 2 0 3 , 2 0 4 , 2 0 5の出力が上記図 1 2の信号成分符号化回 路 1 0 2に送られる。
図 1 4には、 図 1 2の信号成分符号化回路 1 0 2の具体的な構成 を示す。
この図 1 4において、 端子 3 0 0に供給された上記信号成分符号 化回路 1 0 2からの出力は、 正規化回路 3 0 1によって所定の帯域 毎に正規化が施された後、 量子化回路 3 0 3に送られる。 また、 上 記端子 3 0 0に供給された信号は、 量子化精度決定回路 3 0 2にも り る。
上記量子化回路 3 0 3では、 上記端子 3 0 0を介した信号から量 子化精度決定回路 3 0 3によって計算された量子化精度に基づいて 、 上記正規化回路 3 0 1からの信号に対して量子化が施される。 当 該量子化回路 3 0 3からの出力が端子 3 0 4から出力されて図 1 2 の符号列生成回路 1 0 3に送られる。 なお、 この端子 3 0 4からの 出力信号には、 上記量子化回路 3 0 3によって量子化された信号成 分に加え、 上記正規化回路 3 0 1における正規化係数情報や上記量 子化精度決定回路 3 0 2における量子化精度情報も含まれている。 図 1 5には、 図 1 2の構成の符号化装置によって生成された符号 列から音響信号を復号化して出力する復号化装置の概略構成を示す この図 1 5において、 端子 4 0 0を介して供給された図 1 2の構 成により生成された符号列からは、 符号列分解回路 4 0 1 によって 各信号成分の符号が抽出される。 それらの符号からは、 信号成分復 号化回路 4 0 2によって各信号成分が復元され、 その後、 逆変換回 路 4 0 3によって図 1 2の変換回路 1 0 1の変換に対応する逆変換 が施される。 これにより音響波形信号が得られ、 この音響波形信号 が端子 4 0 4から出力される。
図 1 6には、 図 1 5の逆変換回路 4 0 3の具体的な構成を示す。 この図 1 6の構成は、 図 1 3に示した変換回路の構成例に対応し たもので、 端子 5 0 1 , 5 0 2 , 5 0 3を介して信号成分復号化回 路 4 0 2から供給された信号は、 それぞれ図 1 3における順スぺク トル変換に対応する逆スぺク トル変換を行う逆スぺク トル変換回路 5 0 4 , 5 0 5 , 5 0 6によって変換がなされる。 これら逆スぺク トル変換回路 5 0 4, 5 0 5 , 5 0 6によって得られた各帯域の信 号は、 二段の帯域合成フィルタによって合成される。
すなわち、 逆スぺク トル変換回路 5 0 5及び 5 0 6の出力は帯域 合成フィル夕 5 0 7に送られて合成され、 この帯域合成フィル夕 5 0 7の出力と上記逆スぺク トル変換回路 5 0 4の出力とが帯域合成 フィルタ 5 0 8にて合成される。 当該帯域合成フィル夕 5 0 8の出 力が端子 5 0 9 (図 1 5の端子 4 0 4 ) から出力されるようになる o
次に、 図 1 7には、 図 1 2に示される符号化装置において、 従来 より行なわれてきた符号化の方法について説明を行うための図であ る。 この図 1 7の例において、 スぺク トル信号は図 1 3の変換回路 によって得られたものであり、 図 1 7は M D C Tによるスぺク トル 信号の絶対値のレベルを d B値に変換して示したものである。
この図 1 7において、 入力信号は所定の時間プロック毎に 6 4個 のスぺク トル信号に変換されており、 それが図 1 7の図中 b 1から b 5に示す五つの所定の帯域毎にグループ (これをここでは符号化 ュニッ トと呼ぶことにする) にまとめて正規化及び量子化が行なわ れる。 ここでは各符号化ユニッ トの帯域幅は低域側で狭く、 高域側 で広く とられており、 聴覚の性質に合った量子化雑音の発生の制御 ができるようになつている。
ところが、 上述した従来用いられた方法では、 周波数成分を量子 化する帯域は固定されている。 このため、 例えば、 スペク トルが幾 つかの特定の周波数近辺に集中する場合には、 それらのスぺク トル 成分を十分な精度で量子化しょうとすると、 それらのスペク トル成 分と同じ帯域に属する多数のスぺク トルに対して多くのビッ トを割 り振らなければならない。
すなわち、 上記図 1 7からも明らかなように、 所定の帯域毎にま とめて正規化が行なわれると、 例えば信号にトーン性成分が含まれ ている図中 b 3の帯域において、 正規化係数値はトーン性成分によ つて決まる大きな正規化係数値をもとに正規化されることになる。 このとき、 一般に、 特定の周波数にスペク トルのエネルギが集中 するトーン性の音響信号に含まれる雑音は、 エネルギが広い周波数 帯にわたってなだらかに分布する音響信号に加わった雑音と比較し て非常に耳につき易く、 聴感上大きな障害となる。 さらにまた、 大 きなエネルギを持つスぺク トル成分すなわちトーン性成分が十分精 度良く量子化されていないと、 それらのスぺクトル成分を時間軸上 の波形信号に戻して前後のプロックと合成した場合にプロック間で の歪みが大きくなり、 隣接する時間プロックの波形信号と合成され た時に大きな接続歪みが発生し、 やはり大きな聴感上の障害となる 。 このため、 トーン性成分の符号化のためには十分なビッ ト数で量 子化を行なわなければならないが、 上述のように所定の帯域毎に量 子化精度が決められる場合にはトーン性成分を含む符号化ュニッ ト 内の多数のスぺク トルに対して多くのビッ トを割り当てて量子化を 行う必要があり、 符号化効率が悪くなつてしまう。 したがって、 従 来は、 特にトーン性の音響信号に対して音質を劣化させることなく 符号化の効率を上げることが困難であった。
発 明 の 開 示 そこで、 本発明は、 特にトーン性の音響信号に対して音質を劣化 させることなく符号化の効率を上げることを可能とする信号符号化 装置と、 さらにこれら信号符号化装置などで処理された信号が記録 される記録媒体と、 この記録媒体から再生されるか或いは信号符号 化装置から伝送された符号化信号を復号化する信号復号化装置の提 供を目的とするものである
本発明はこのような実情を鑑みてなされたものであり、 本発明の 信号符号化装置は、 入力信号を周波数成分に変換する変換手段と、 上記変換手段の出力をトーン性成分からなる第一の信号とその他の 成分からなる第二の信号に分離する分離手段と、 上記第一の信号を 符号化する第一の符号化手段と、 上記第二の信号を符号化する第二 の符号化手段とを備え、 上記第一の符号化手段は、 上記第一の信号 の各信号成分をそれぞれ異なる符号長に符号化するようにしたもの である。
ここで、 本発明の信号符号化装置は、 以下のことを行う。 すなわ ち、 上記第一の符号化手段は、 上記第一の信号の符号化の際に、 上 記第一の信号の各ト一ン性成分の振幅情報を、 正規化係数によって 正規化してから符号化する。 また、 上記各トーン性成分の各周波数 成分を、 複数個の変換規則によって符号化する。 上記複数個の変換 規則のうち何れの変換規則で符号化を行うかは、 ト一ン性成分の極 大周波数成分と各周波数成分との周波数軸上での相対位置関係によ つて決める。 上記変換規則のうち極大周波数成分に対して適用され る変換規則は、 より大きな振幅値情報を持つものに対してより短い 符号への変換を行うものである。 上記該変換規則のうち極大周波数 成分の他の各周波数成分に対して適用される変換規則は、 より小さ な振幅値情報を持つものに対してより短い符号への変換を行うもの である。 なお、 上記入力信号は、 音響信号である。
また、 本発明の信号符号化装置の上記第一の符号化手段は、 上記 第一の信号の各トーン性成分の振幅情報を正規化係数によって正規 化および量子化して符号化すると共に、 当該符号化には極大周波数 成分の振幅情報を省略するようにもしている。
この場合の本発明の信号符号化装置は、 以下のようなことを行う 。 すなわち、 上記分離手段は、 上記トーン性成分を互いに周波数軸 上で重複することを許して上記第一の信号の分離を行う。 上記正規 化係数の値は、 小さいものほど精度良く設定する。 なお、 この場合 も入力信号は音響信号である。
次に、 本発明の記録媒体は、 それぞれが異なる長さに符号化され たトーン性成分からなる第一の信号と、 その他の成分からなる第二 の信号とを記録してなるものである。
ここで、 本発明の記録媒体は、 以下のようになされるものである 。 すなわち、 上記第一の信号の各トーン性成分の振幅情報は、 正規 化係数によって正規化されて符号化されている。 また、 上記各トー ン性成分の各周波数成分は、 複数個の変換規則によって符号化され ている。 上記複数個の変換規則のうち何れの変換規則で符号化が行 なわれているかは、 トーン性成分の極大周波数成分と各周波数成分 との周波数軸上での相対位置閟係によって決めている。 上記変換規 則のうち極大周波数成分に対して適用されている変換規則は、 より 大きな振幅値情報を持つものに対してより短い符号への変換を行う ものである。 上記変換規則のうち極大周波数成分の他の各周波数成 分に対して適用されている変換規則は、 より小さな振幅値情報を持 つものに対してより短い符号への変換を行うものである。 なお、 記 録される信号は音響信号である。
また、 本発明の記録媒体は、 トーン性成分からなる第一の信号と その他の成分からなる第二の信号を記録し、 上記第一の信号のトー ン性成分の振幅情報を正規化及び量子化して符号化し、 極大周波数 成分の振幅情報を正規化及び量子化した情報を除く情報の記録がな されている。
ここで、 上記第一の信号のトーン性成分を周波数軸上で重複して 記録されている。 上記正規化のための正規化係数は値が小さいもの ほど精度良く設定されている。
次に、 本発明の信号復号化装置は、 それぞれが異なる長さに符号 化されたトーン性成分からなる第一の信号を復号化する第一の復号 化手段と、 その他の成分からなる第二の信号を復号化する第二の復 号化手段と、 各々の信号を合成して逆変換を行うか若しくは各々の 信号を逆変換して合成する合成逆変換手段とを備えてなるものであ ここで、 本発明の信号復号化装置は、 以下のようなものである。 すなわち、 上記第一の信号の各トーン性成分の振幅情報は正規化係 数によって正規化されて符号化されている。 また、 上記各トーン性 成分の各周波数成分は複数個の変換規則によって符号化されている 。 上記複数個の変換規則のうち何れの変換規則で符号化が行われて いるかは、 トーン性成分の極大周波数成分と各周波数成分との周波 数軸上での相対位置関係によって決められている。 上記変換規則の うち極大周波数成分に対して適用されている変換規則は、 より大き な振幅値情報を持つものに対してより短い符号への変換を行うもの となっている。 上記変換規則のうち極大周波数成分以外に対して適 用されている変換規則は、 より小さな振幅値情報を持つものに対し てより短い符号への変換を行うものとなっている。 なお、 出力信号 は音響信号となる。
また、 本発明の信号復号化装置は、 極大周波数成分の振幅情報を 正規化及び量子化した情報を含まずに符号化されたトーン性成分か らなる第一の信号を復号化する第一の複号化手段と、 その他の成分 からなる第二の信号を復号化する第二の復号化手段と、 各々の信号 を合成して逆変換を行うか若しくは各々の信号を逆変換して合成す る合成逆変換手段とを備えてなるものでもある。
ここで、 上記第一の信号のトーン性成分は周波数軸上で重複して 符号化されている。 また、 上記正規化のための正規化係数は値が小 さいものほど精度良く設定されている。
本発明は、 入力された音響信号を特定の周波数にエネルギが集中 する信号成分 (トーン性成分) と広い帯域にエネルギがなだらかに 分布する成分 (トーン性成分以外の成分) に分離して符号化を施す 場合において、 トーン性成分の信号に対して、 可変長の符号を効果 的に適用することによって、 より効率的な符号化を実現するように している。 また、 トーン性成分のうち、 絶対値が極大のスペク トル 係数に関しては例えば正負の符号情報のみを符号化することによつ て、 より効率的な符号化を実現するようにもしている。 図面の簡単な説明 図 1は、 本発明に係る符号化装置の概略構成を示すプロック回路 図である。
図 2は、 本発明に係る復号化装置の概略構成を示すプロック回路 図である。
図 3は、 本発明に係る信号成分分離回路における処理の流れを示 すフローチヤ一トである。
図 4は、 本発明の信号符号化におけるトーン性成分の分離につい て説明するための図である。
図 5は、 本発明の信号符号化における元のスぺク トル信号からト 一ン性成分を除いたノイズ性成分を示す図である。
図 6は、 スペク トル信号の例を示す図である。
図 7は、 図 6のスぺク トル信号から、 1つのトーン性成分を符号 化して復号化した信号を差し引いた後の信号を示す図である。
図 8は、 本発明におけるトーン性成分のスぺク トルに対する変換 規則を説明するための図である。
図 9は、 図 1のトーン性成分符号化回路の具体的構成を示すプロ ック回路図である。
図 1 0は、 図 2のトーン性成分復号化回路の具体的構成を示すブ 口ック回路図である。
図 1 1は、 本発明の信号符号化により符号化されて得られた符号 列の記録を説明するための図である。
図 1 2は、 従来の符号化装置の概略構成を示すブロック回路図で ある。 図 1 3は、 本発明及び従来の符号化装置に適用される変換回路の 具体的構成を示すプロック回路図である。
図 1 4は、 本発明及び従来の符号化装置に適用される信号成分符 号化回路の具体的構成を示すプロック回路図である。
図 1 5は、 従来の復号化装置の概略構成を示すブロック回路図で あ 。
図 1 6は、 本発明及び従来の復号化装置に適用される逆変換回路 の具体的構成を示すプロック回路図である。
図 1 7は、 従来技術による符号化方法を説明するための図である 図 1 8は、 本発明に係る復号化装置を構成する合成逆変換部の他 の例を示すプロック回路図である。
図 1 9は、 本発明に係る符号化装置の他の実施例を示すすブロッ ク回路図である。
図 2 O Aは、 極大スぺク トル係数に対する変換規則を示すコ一ド •テーブルである。
図 2 0 Bは、 すべての周辺スぺク トル係数に対して同一の変換規 則を用いる場合の周辺スぺク トル係数の変換規則を示すコード ·テ 一ブルである。 発明を実施するための最良の形態 以下、 本発明の好ましい実施例について、 図面を参照しながら説 明する。
図 1には、 本発明実施例の信号符号化装置の概略構成を示してい る o
図 1において、 端子 6 0 0には音響波形信号が供給される。 この 音響信号波形は、 変換回路 6 0 1によって信号周波数成分に変換さ れた後、 信号成分分離回路 6 0 2に送られる。
当該信号成分分離回路 6 0 2においては、 変換回路 6 0 1によつ て得られた信号周波数成分は、 急峻なスぺク トル分布を持つトーン 性成分と、 それ以外の信号周波数成分すなわち平坦なスぺク トル分 布を持つノイズ性成分とに分離される。 これら分離された周波数成 分のうち、 上記急峻なスぺク トル分布を持つトーン性成分はトーン 性成分符号化回路 6 0 3で、 それ以外の信号周波数成分である上記 ノイズ性成分はノイズ性成分符号化回路 6 0 4で、 それぞれ符号化 される。 トーン性成分符号化回路 6 0 3から出力された信号は、 さ らに可変長符号化回路 6 1 0で可変長符号化される。 これら可変長 符号化回路 6 1 0とノイズ性成分符号化回路 6 0 4からの出力は、 符号列生成回路 6 0 5によって符号列が生成され、 出力される。 E C Cエンコーダ 6 0 6は、 符号列生成回路 6 0 5からの符号列に対 して、 エラーコレクショ ンコードを付加する。 E C Cエンコーダ 6 0 6からの出力は、 E F M回路 6 0 7によって変調され、 記録へッ ド 6 0 8に供給される。 記録へッ ド 6 0 8は、 E F M回路 6 0 7力、 ら出力された符号列をディスク 6 0 9に記録する。
なお、 変換回路 6 0 1には前述した図 1 3と同様の構成を使用す ることができる。 もちろん、 図 1の変換回路 6 0 1の具体的構成と しては、 上記図 1 3の構成以外にも多数考えることができ、 例えば 、 入力信号を直接 M D C Tによってスぺク トル信号に変換しても良 いし、 スぺク トル変換は M D C Tではなく D F Tや D C Tなどを用 いることもできる。
また、 前述のように、 帯域分割フィルタによって信号を帯域成分 に分割することも可能であるが、 本発明における符号化は特定の周 波数にエネルギが集中する場合に特に有効に作用するので、 多数の 周波数成分が比較的少ない演算量で得られる上述のスぺク トル変換 によって周波数成分に変換する方法をとると都合がよい。
さらに、 トーン性成分符号化回路 6 0 3とノィズ性成分符号化回 路 6 0 4 も基本的には前述した図 1 4 と同様の構成で実現すること ができるものである。
一方、 図 2には、 図 1の符号化装置で符号化された信号を復号化 する本発明実施例の信号復号化装置の概略構成を示す。
この図 2において、 ディスク 6 0 9から再生へッ ド 7 0 8を介し て再生された符号列は、 E F M復調回路 7 0 9に供給される。 E F M復調回路 7 0 9では、 入力された符号列を復調する。 復調された 符号列は、 E C Cデコーダ 7 1 0に供給され、 ここでエラー訂正が 行われる。 符号列分解回路 7 0 1は、 エラー訂正された符号列中の トーン性成分情報数に基づいて、 符号列のどの部分がトーン性成分 符号であるかを認識し、 入力された符号列をトーン性成分符号とノ ィズ性成分符号に分離する。 また、 符号列分離回路 7 0 1は、 入力 された符号列からトーン性成分の位置情報を分離し、 後段の合成回 路 7 0 4に出力する。 上記トーン性成分符号は可変長復号化回路 7
1 5によって可変長復号化された後、 トーン性成分復号化回路 7 0
2に送られ、 上記ノイズ性符号はノイズ性成分復号化回路 7 0 3に 送られ、 ここでそれぞれ逆量子化及び正規化の解除が行われ復号化 される。 その後、 これらトーン性成分復号化回路 7 0 2とノイズ性 成分復号化回路 7 0 3からの復号化信号は、 上記図 1の信号成分分 離回路 6 0 2での分離に対応する合成を行う合成回路 7 0 4に供給 される。 合成回路 7 0 4は、 符号列分離回路 7 0 1から供給された ト一ン性成分の位置情報に基づいて、 ト一ン性成分の復号化信号を 、 ノィズ性成分の復号化信号の所定の位置に加算することにより、 ノイズ性成分とトーン性成分の周波数軸上での合成を行う。 さらに 、 合成された復号化信号は、 上記図 1の変換回路 6 0 1での変換に 対応する逆変換を行う逆変換回路 7 0 5で変換処理され、 周波数軸 上の信号から元の時間軸上の波形信号に戻される。 この逆変換回路 7 0 5からの出力波形信号は、 端子 7 0 7から出力される。 なお、 逆変換と合成の処理順序は逆でもよく、 この場合、 図 2における合 成逆変換部 7 1 1は、 図 1 8に示す構成となる。 この図 1 8に示す 合成逆変換部 7 1 1を構成する逆変換回路 7 1 2は、 ノイズ性成分 復号化回路 7 0 3からの周波数軸上のノイズ性成分の復号化信号を 時間軸上のノイズ性成分信号に逆変換する。 逆変換回路 7 1 3は、 トーン性成分復号化回路 7 0 2からのトーン性成分の復号化信号を 、 符号列分離回路 7 0 1から供給されたトーン性成分の位置情報の 示す周波数軸上の位置に配し、 これを逆変換して、 時間軸上のトー ン性成分信号を生成する。 合成回路 7 1 4は、 逆変換回路 7 1 2か らの時間軸上のノイズ性成分信号と逆変換回路 7 1 3からの時間軸 上のトーン性成分信号とを合成し、 元の波形信号を再生する。
なお、 上記逆変換回路 7 0 5、 7 1 2、 7 1 3には、 前述した図 1 6 と同様の構成を使用することができる。
ここで、 図 3には、 図 1の符号化装置の信号成分分離回路 6 0 2 においてトーン性成分を分離するための具体的処理の流れを表す。 なお、 図 3において、 Iはスペク トル信号の番号を、 Nはスぺク トル信号の総数、 P, Rは所定の係数を示している。 また、 上記ト ーン成分は、 あるスぺク トル信号の絶対値が局所的に見て他のスぺ ク トル成分よりも大きく、 なおかつ、 それがその時間ブロック (ス ぺク トル変換の際のブロック) におけるスぺク トル信号の絶対値の 最大値と比較して所定の大きさ以上であり、 さらに、 そのスぺク ト ルと近隣のスぺク トル (例えば両隣のスぺク トル) のエネルギの和 がそれらのスぺク トルを含む所定の帯域内のエネルギに対して所定 の割合以上を示している場合に、 そのスぺク トル信号と例えばその 両隣のスぺク トル信号がトーン性成分であると見なしている。 なお 、 ここで、 エネルギ分布の割合を比較する所定の帯域としては、 聴 覚の性質を考慮して例えば臨界帯域幅に合わせて、 低域では狭く高 域では広く とることができる。
すなわち、 この図 3において、 先ず、 ステップ S 1では最大スぺ ク トル絶対値を変数 A O に代入し、 ステップ S 2ではスぺク トル信 号の番号 Iを 1にする。 ステップ S 3では、 ある時間ブロック内の あるスぺク トル絶対値を変数 Aに代入する。
ステップ S 4では、 上記スぺク トル絶対値が局所的に見て他のス ぺク トル成分よりも大きい極大絶対値スぺク トルか否かを判断し、 極大絶対値スぺク トルでないとき (N o ) にはステップ S 1 0に進 み、 極大絶対値スぺク トルである場合 (Y e s ) にはステップ S 5 に進む。
ステップ S 5では、 当該極大絶対値スぺク トルを含むその時間ブ oックにおける当該極大絶対値スぺク トルの変数 Aと最大スぺク ト ル絶対値の変数 A。との比と、 所定の大きさを示す係数 Pとの 大小比較 (AZA。>P) を行い、 AZA。が Pより大きい場合 (Ye s) にはステップ S 6に、 AZA。が P以下の場合 (NO) にはスッテプ S 1 0に進む。
ステップ S 6では、 上記スぺク トル絶対値のスぺク トル (極大絶 対値スぺク トル) の近隣のスぺク トルのエネルギ値 (例えば両隣の スぺク トルのエネルギの和) を変数 Xに代入し、 次のステップ S 7 では当該極大絶対値スぺク トル及びその近隣のスぺク トルを含む所 定の帯域内のエネルギ値を変数 Yに代入する。
次のステップ S 8では、 上記エネルギ値の変数 Xと所定帯域内の エネルギ値の変数 Yとの比と、 所定の割合を示す係数 Rとの大小比 較 (XZY>R) を行い、 XZYが Rより大きいとき (Ye s) に はステップ S 9に、 XZYが R以下のとき (No) にはステップ S 1 0に進む。
ステップ S 9では、 上記極大絶対値スぺク トルとその近隣のスぺ ク トルにおける上記エネルギがそれらのスぺク トルを含む所定の帯 域内のエネルギに対して所定の割合以上を示している場合に、 その 極大絶対値スぺク トルの信号と例えばその両隣の低域側、 高域側各 2本ずつのスぺク トルの信号がトーン性成分であると見なし、 その 旨を登録する。
次のステップ S 1 0では、 上記ステップ S 9において登録された スぺク トル信号の番号 Iとスぺク トル信号の総数 Nとが等しい ( I =N) か否かを判断し、 等しい場合 (Ye s) には処理を終了し、 等しくない場合 (No) にはステップ S 1 1に進む。 このステップ S 1 1では、 I = I + 1として 1づっスぺク トル信号の番号を増加 させてステップ S 3に戻り、 上述の処理を繰り返す。 信号成分分離 回路 6 0 2は、 上述の処理によってトーン性成分であると判定した 周波数成分をトーン性成分符号化回路 6 0 3に供給し、 それ以外の 周波数成分をノイズ性成分としてノイズ性成分符号化回路 6 0 4に 供給する。 また、 信号成分分離回路 6 0 2は、 トーン性成分である と判定された周波数情報の数とその位置情報を符号列生成回路 6 0 5に供給する。
図 4には、 上述のようにしてトーン性成分が周波数成分から分離 される一例の様子を表す。
この図 4に示す例では、 図中 T C A, T C B, T C C, T C Dで 示す四つのトーン性成分が抽出されている。 ここで、 当該トーン性 成分は、 図 4の例のように少数のスぺク トル信号に集中して分布し ているため、 これらの成分を精度良く量子化しても、 全体としては あまり多くのビッ ト数は必要とはならない。 このため、 トーン成分 を一旦、 正規化してから量子化することによって符号化の効率を高 めることができるが、 トーン性成分を構成するスぺク トル信号は比 較的少数であるので正規化や再量子化の処理を省略して装置を簡略 化してもよい。
ところで、 図 5には、 元のスぺク トル信号から上記トーン性成分 を除いた ( 0にする) 場合のノイズ性成分を表した例を示している o
この図 5においては、 各帯域 b 1〜b 5において上記元のスぺク トル信号からは上述のようにトーン性成分が除かれ ( 0にする) て いる。 この場合、 各符号化ユニッ トにおける正規化係数は小さな値 となり、 したがって、 少ないビッ ト数でも発生する量子化雑音は小 さくすることができる。 以上、 トーン性成分を分離し、 トーン性成分及びその近辺の信号 を 0にした後、 ノィズ性成分を符号化することで効率良い符号化を 可能とできる旨述べたが、 元のスぺク トル信号からトーン性成分を 符号化して復号化した信号を引いたものを符号化していく、 という 方法をとることもできる。
この方法による信号符号化装置を図 1 9を参照しながら説明する 。 なお、 図 1 と同じ構成については、 同じ番号を付与し、 その説明 を省略する。
変換回路 6 0 1によって得られたスぺク トル信号は、 スィツチ制 御回路 8 0 8によって制御されるスィツチ 8 0 1を介して、 トーン 性成分抽出回路 8 0 2に供給される。 トーン性成分抽出回路 8 0 2 は、 上述した図 3の処理によってトーン性成分を判別し、 判別され たトーン性成分のみをトーン性成分符号化回路 6 0 3に供給する。 また、 トーン性成分抽出回路 8 0 2は、 トーン性成分情報の数と、 その中心位置情報を符号化列生成回路 6 0 5に出力する。 トーン性 成分符号化回路 6 0 3は、 入力されたトーン性成分に対し、 正規化 及び量子化を行い、 正規化及び量子化されたトーン性成分を可変長 符号化回路 6 1 0及びローカルデコーダ 8 0 4に供給する。 可変長 符号化回路 6 1 0は、 正規化及び量子化されたトーン性成分を可変 長符号化して、 得られた可変長符号を符号列生成回路 6 0 5に供給 する。 ローカルデコーダ 8 0 4は、 正規化及び量子化されたトーン 性成分に対して、 逆量子化及び正規化の解除を行い、 元のトーン性 成分の信号を復号する。 但しこの時、 復号信号には量子化雑音が含 まれることになる。 ローカルデコーダ 8 0 4からの出力は、 1回目 の復号信号として、 加算器 8 0 5に供給される。 また、 加算器 8 0 5には、 スイツチ制御回路 8 0 8によって制御されるスィツチ 8 0 6を介して、 変換回路 6 0 1からの元のスぺク トル信号が供給され る。 加算器 8 0 5は、 元のスぺク トル信号から、 1回目の復号信号 を差し引いて 1回目の差分信号を出力する。 トーン性成分の抽出、 符号化、 復号化、 差分化処理を 1回で終了する場合は、 この 1回目 の差分信号がノイズ性成分として、 スィッチ制御回路 8 0 8によつ て制御されるスィツチ 8 0 7を介して、 ノイズ性成分符号化回路 6 0 4に供給される。 トーン性成分の抽出、 符号化、 復号化、 差分化 処理を繰り返す場合は、 1回目の差分信号は、 スィッチ 8 0 1を介 してトーン性成分抽出回路 8 0 2に供給される。 トーン性成分抽出 回路 8 0 2、 トーン性成分符号化回路 6 0 3、 ローカルデコーダ 8 0 4は上述と同様の処理を行い、 得られた 2回目の復号信号が加算 器 8 0 5に供給される。 また、 加算器 8 0 5には、 スィッチ 8 0 6 を介して 1回目の差分信号が供給される。 加算器 8 0 5は、 1回目 の差分信号から、 2回目の復号信号を差し引いて 2回目の差分信号 を出力する。 トーン性成分の抽出、 符号化、 復号化、 差分化処理を 2回で終了する場合は、 この 2回目の差分信号が、 ノイズ性成分と して、 スィッチ 8 0 7を介して、 ノイズ性成分符号化回路 6 0 4に 供給される。 トーン性成分の抽出、 符号化、 復号化、 差分化処理を 更に繰り返す場合は、 上述と同様な処理が、 トーン性成分抽出回路 8 0 2、 トーン性成分符号化回路 6 0 3、 ローカルデコーダ 8 0 4 、 加算器 8 0 5によって行われる。 スィツチ制御回路 8 0 8は、 ト ーン性成分情報数の閾値を保持しており、 トーン性成分抽出回路か ら得られるトーン性成分情報数がこの閾値を越えた場合にトーン性 成分の抽出、 符号化、 復号化処理を終了するようスィッチ 8 0 7を 制御する。 また、 トーン性成分符号化回路 6 0 3において、 トーン 性成分が抽出されなくなった時点で、 トーン性成分の抽出、 符号化 、 復号化、 差分化処理を終了とすることもできる。
図 6、 図 7は、 このような方法について説明を行うための図であ る。 図 7は図 6のスぺク トル信号から、 ^のトーン性成分を符号 化して復号化した信号を差し引いたものである。
また、 図 7のスぺク トル信号からさらに破線で示した成分をトー ン性成分として抽出し符号化することによってスぺク トル信号の符 号化精度を上げることができ、 これを繰り返していく ことにより精 度の高い符号化を行うことができることになる。 なお、 この方法を 用いる場合、 トーン成分を量子化するためのビッ ト数の上限を低く 設定していても符号化精度を十分に高く とることができ、 したがつ て、 量子化ビッ ト数を記録するビッ ト数を小さくすることができる という利点もある。 また、 このようにトーン性成分を多段階に抽出 していく方法は必ずしもトーン性成分を符号化して復号化したもの と同等の信号を元のスぺク トル信号から差し引いていく場合だけで なく、 抽出されたトーン性成分のスぺク トル信号を 0にした場合に も適用可能であり、 本発明の記述において 「トーン性成分を分離し た信号」 等の表現はこの両者を含むものである。
このように、 本実施例の符号化装置においては、 元の波形信号を トーン性成分とノイズ性成分に分解して符号化を行うことにより効 率の良い符号化を実現することができるが、 トーン性成分の符号化 に関して以下に述べる方法を適用することで、 より一層、 効率の良 い符号化を行うことができる。
すなわち、 各トーン性成分は絶対値が極大となるスぺク トル係数 (これをここでは極大スぺク トル係数と呼ぶことにする)およびそ の周辺のスぺク トル係数(これをここでは周辺スぺク トル係数と呼 ぶことにする)にはエネルギが集中することになるが、 ここで、 各 係数を量子化した時の値の分布には偏りがあり、 かつ、 極大スぺク トル係数と周辺スぺク トル係数とでは周波数軸上での相対位置関係 によってその分布の仕方は大きく異なる。 すなわち、 各トーン成分 を構成するスぺク トル係数を極大スぺク トル係数によって決定付け られる正規化係数で正規化すればすなわち、 例えば、 トーン性成分 を構成する各スペク トル係数を、 そのトーン性成分中の極大スぺク トル係数で割ってやれば、 量子化後の極大スぺク トル係数は + 1 ま たは一 1 に近い値になるのに対し、 トーン成分は元々スぺク トル係 数が極大スぺク トル係数を中心にして急激に減少するという性格を もつものであるため、 量子化後の周辺スぺク トル係数は 0に近い値 により多く分布する。
このように符号化すべき値の分布に偏りがある場合には、 例えば、
D. A. Huf fman : A Method f or Cons truct i on of Mi n imum Redundancy Codes, Proc. I . R. E. , 40, p. 1098 (1952) に述べられているように 、 頻度の多いパターンには短い符号長を割り当てるようないわゆる 可変長符号によって効率良く符号化することができる。
そこで、 本発明実施例の信号符号化装置では、 各トーン性成分を 極大スぺク トル係数と周辺スぺク トル係数に分離し、 それぞれに対 して異なる可変長符号を適用することにより、 効率の良い符号化を 実現するようにしている。
なお、 上述のように、 トーン性成分は周波数軸上で非常に急峻な スぺク トル分布を持っため、 周辺スぺク トル係数を正規化および量 子化した場合の値の分布はその周辺スぺク トル係数と極大スぺク ト ル係数との周波数軸上での相対位置関係によって大きな影響を受け る。 そこで、 周辺スぺク トル係数を極大スぺク トル係数との周波数 軸上での相対位置によって周辺スぺク トル係数をさらにいくつかの 分類し、 分類された組毎に異なる可変長符号への変換規則によって 変換しても良い。
この相対位置の分類の方法としては、 極大スぺク トル係数との周 波数軸上での差分の絶対値によって分類を行うという方法をとるこ とができる。
すなわち、 例えば図 8に示されたようなトーン性成分のスぺク ト ルに対して、 図中 E C cに示す極大スぺク トル係数に対する変換規 則、 図中 E C bおよび E C dに示す周辺スぺク トル係数に対する変 換規則、 図中 E C aおよび E C eに示すの周辺スぺク トル係数に対 する変換規則の合計三つの変換規則を使って可変長符号への変換を 行うことができる。 もちろん、 処理を簡単にするためにすベての周 辺スぺク トル係数に対して同一の変換規則によって可変長符号化し ても良い。
図 2 0 Aに極大スぺク トル係数に対する変換規則を示すコード · テーブルの例を示す。 また、 図 2 0 Bにすベての周辺スペク トル係 数に対して同一の変換規則を用いる場合の、 周辺スぺク トル係数の 変換規則を示すコード ·テーブルの例を示す。
正規化及び量子化後の極大スぺク トル係数、 すなわち極大スぺク トルの量子化値は、 上述したように、 + 1 または一 1 に近い値にな る。 よって、 図 2 0 Aに示すように、 この + 1及び— 1に対して、 その他の値に割り当てる符号長に比較して短い符号長の符号である 0 0及び 0 1を割り当てれば、 極大スぺク トル係数を効率よく符号 化することができる。
また、 正規化及び量子化後の周辺スぺク トル係数、 すなわち周辺 スペク トルの量子化値は、 上述したように、 0に近い値になる。 よ つて、 図 2 0に示すように、 この 0に対して、 その他の値に割り当 てる符号長に比較して短い符号長である 0を割り当てれば、 周辺ス ぺク トル係数を効率よく符号化することができる。
さらに、 トーン性成分符号化回路 6 0 3で決められる量子化精度 毎に、 極大スぺク トル係数に対するコ一ド ·テーブル及び周辺スぺ ク トル係数に対するコード ·テーブルをそれぞれ複数設けておき、 決められた量子化精度に合わせて対応するコ一ド ·テーブルを選択 するようにすればより効率の良い符号化を行うことができる。
図 9は図 1の可変長符号化回路 6 1 0の具体例を示したものであ o
この図 9において、 端子 8 0 0に入力されたトーン性成分は制御 回路 8 0 1によって極大スぺク トル成分との周波数軸上での相対位 置によって分類され、 それぞれ対応する極大スぺク トル係数符号化 回路 8 0 2、 周辺スぺク トル係数符号化回路 8 0 3、 周辺スぺク ト ル係数符号化回路 8 0 4のいずれかに送られ、 これら各回路でそれ ぞれ上述した対応する変換規則に基づいて符号化される。 各符号化 回路 8 0 2 , 8 0 3 , 8 0 4からの符号化出力は、 制御回路 8 0 1 を介して出力端子 8 0 5から出力される。
また、 図 1 0は、 前記図 2の可変長復号化回路 7 1 5の具体例を 示したものである。
この図 1 0において、 入力端子 9 0 0に入力されたトーン性成分 符号は制御回路 9 0 1によって、 上記図 9での分類に対応して分け られてそれぞれ対応する極大スぺク トル係数複号化回路 9 0 2、 周 辺スぺク トル係数復号化回路 9 0 3、 周辺スぺク トル係数複号化回 路 9 0 4のいずれかに送られ、 これら各回路でそれぞれ対応する上 述の変換規則に対応する逆変換規則に基づいて復号化される。 各復 号化回路 9 0 2, 9 0 3, 9 0 4からの復号化出力は、 制御回路 9 0 1を介して出力端子 9 0 5から出力される。
次に、 図 1 1は、 本実施例の符号化装置によって図 4のスぺク ト ル信号を符号化した場合の例を示した者である。 この符号列が記録 媒体に記録されるようになる。
この例では、 先ず最初にトーン性成分情報数 t n c (図 1 1の例 では例えば 4 ) が記録媒体に記録され、
次にトーン性成分情報 t c A, t c B, t c c, t c Dが、
次にノイズ性成分情報 n c n c 2, n c 3, n c 4, n c 5の 順番に記録がなされている。
トーン性成分情報 t c A, t c B, t c c, t c Dにはそのトーン 性成分の中心スぺク トルの位置を表す中心位置情報 C P (例えばト —ン性成分 t c Bの場合には例えば 1 5 ) 、 量子化のためのビッ ト 数を表す量子化精度情報 (例えばトーン性成分 t c Bの場合には例 えば 6 ) 、 正規化係数情報が、 正規化および量子化されたのち可変 長符号化された
各信号成分情報 S Ce, S Cb, S Cc, S Cd, S Ceとともに 記録されている。 この例において、 可変長符号化の変換規則は量子 化精度毎に決まっており、 復号化装置は量子化精度情報を参照して 可変長符号の複号化を行う。 ここで、 例えば、 周波数によって固定的に量子化精度が定められ ているような場合にはもちろん量子化精度情報は記録する必要はな い。 なお、 上述の実施例では、 トーン性成分の位置情報として、 各 トーン性成分の中心スぺク トルの位置を用いるようにしたが、 各ト ーン性成分の一番低域のスぺク トルの位置 (例えば、 トーン性成分
TCBの場合には 1 4 ) を記録してもよい。
また、 ノイズ性成分情報については、 量子化精度情報 (ノイズ性 n c ,の場合は例えば 2) と正規化係数情報が正規化および量子化 された各信号成分情報 S d, S C2, · · ·, S C 8とともに記 録されている。
ここで量子化精度情報が 0である場合には、 その符号化ュニッ ト において実際に符号化が行なわれない。 やはり帯域によって固定的 に量子化精度が定められている場合には量子化精度情報は記録する 必要はない。
なお、 図 1 1は、 記録媒体に記録されている情報の種類と順番の 実施例を示すものであり、
例えば、 信号成分情報 S Ce, S Cb, S Co, S Cd) S Ceま では可変長の符号で、 その長さは一定ではない。
次に、 本実施例の信号符号化装置では、 各トーン性成分の極大ス ぺク トルに対して、 その振幅情報を正規化係数情報のみによって与 えることにより効率の良い符号化を可能にもしている。 すなわち、 トーン性成分符号化回路 6 0 3は、 各トーン性成分の極大スぺク ト ル以外の周波数成分に対して正規化及び量子化を行う。 トーン性成 分符号化回路 6 0 3においては極大スぺク トルも含むすべての各ト ーン性成分に対して正規化及び量子化を行い、 後段の符号列生成回 路 6 0 5において極大スぺク トルに対応する量子化値を出力しない ようにすることもできる。 このような符号化を行った場合、 図 1 1の例では、 信号成分情報 S C Cは、 正負を表す符号のみ含むこと になる。
ここで、 正規化係数は元々、 極大スペク トルの振幅情報を近似す る値が選択されるため、 正規化係数が記録媒体に記録されている場 合には信号復号化装置はその正規化係数から極大スぺク トルの振幅 情報の近似値を得ることができる。 したがって、 例えばスペク トル 情報が M D C Tや D C T等で実現されている場合には、 極大スぺク トルは、 正負を表す符号と正規化係数情報からその近似を得ること ができ、 また例えばスぺク トル情報が D F T等で実現されている場 合には、 極大スぺク トルは、 位相成分のみからその近似を得ること ができ、 極大スぺク トルに対して振幅情報を量子化した情報の記録 を省略することができる。 この方法は正規化係数が精度良く とれる 場合には特に有効である。
この場合の信号符号化装置において、 正規化係数の精度が十分で ない場合には極大スぺク トル係数の精度が十分に確保されない場合 が生じることがある。 しかし、 図 1 9に示した構成を用いて多段階 にわたつてトーン性成分を抽出するという方法を用いることによつ て、 この問題を解決することができる。 図 6 , 図 7に示すように、 この方法によれば、 周波数軸上で重複した周波数成分が、 トーン性 成分として複数回抽出される可能性が高い。 小さい値の正規化係数 ほど精度が良くなるように、 例えば対数尺度で一定間隔毎に設定し ておくなど、 非線形に設定しておく と良い。
よって復号化装置側で、 この複数の周波数成分を合成すれば、 1 つの正規化係数の精度が十分でない場合にも、 ある程度の精度を確 保することができる。 また、 以上の説明では、 音響信号を本 発明実施例の信号符号化装置で符号化する例を中心に説明を行なつ たが、 本発明における符号化では、 一般の波形信号の符号化にも適 用することが可能である。 ただし、 本発明における符号化では、 ト ーン性成分が聴感上重要な意味を持つ音響信号に対して効率的な符 号化を行う上で特に有効である。
さらに、 上述の実施例のディスク 6 0 9は、 例えば光磁気記録媒 体、 光記録媒体、 相変化型光記録媒体等とすることができる。 また ディスク 6 0 9のかわりの記録媒体として、 テープ状記録媒体の他 、 半導体メモリ, I Cカード等を用いることもできる。
さらに、 上述の実施例においてはトーン性成分のみ可変長符号す る場合について説明したが、 ノイズ性成分についても可変長符号す るようにしてもよい。 産業上の利用可能性 以上の説明からも明らかなように、 本発明に係る信号符号化装置 においては、 入力信号を周波数成分に変換し、 この変換出力をト一 ン性成分からなる第一の信号とその他の成分からなる第二の信号に 分離し、 これら第一, 第二の信号を符号化するに際し、 第一の信号 の各信号成分は異なる符号長に符号化することにより、 ト一ン性成 分とノイズ性成分に分解された信号のうち、 トーン性成分を極めて 効率良く符号化することが可能となり、 信号波形全体に対する符号 化効率を向上させることが可能になっている。 したがって、 この圧 縮された信号を記録媒体に記録すれば、 記録容量を有効に利用でき 、 さらに、 この記録媒体を再生して得た信号を符号化することで良 好な信号、 例えば音響信号を得ることかできる

Claims

請 求 の 範 囲
1 . 入力信号を符号化する信号符号化装置において、
入力信号を周波数成分に変換する変換手段と、
上記変換手段の出力をトーン性成分からなる第一の信号とその他 の成分からなる第二の信号に分離する分離手段と、
上記第一の信号を符号化する第一の符号化手段と、
上記第二の信号を符号化する第二の符号化手段とを備え、 上記第一の符号化手段は、 上記第一の信号の各信号成分を可変長 符号化する可変長符号化手段を含んでなる信号符号化装置。
2 . 上記第一の符号化手段は、 上記第一の信号の符号化の際に、 上記第一の信号の各ト一ン性成分の振幅情報を、 正規化係数によつ て正規化してから上記可変長符号化することを特徴とする請求項 1 記載の信号符号化装置。
3 . 上記可変長符号化手段は、 上記各ト一ン性成分の各周波数成 分を、 複数個の変換規則によって可変長符号化することを特徴とす る請求項 1又は 2記載の信号符号化装置。
4 . 上記複数個の変換規則のうち何れの変換規則で符号化を行う かは、 トーン性成分の極大周波数成分と各周波数成分との周波数軸 上での相対位置関係によって決めることを特徴とする請求項 3記載 の信号符号化装置。
5 . 上記変換規則のうち極大周波数成分に対して適用される変換 規則は、 より大きな振幅値情報を持つものに対してより短い符号へ の変換を行うものであることを特徴とする請求項 3記載の信号符号 化装置。
6 . 上記該変換規則のうち極大周波数成分の他の各周波数成分に 対して適用される変換規則は、 より小さな振幅値情報を持つものに 対してより短い符号への変換を行うものであることを特徴とする請 求項 3記載の信号符号化装置。
7 . 上記入力信号は、 音響信号であることを特徴とする請求項 1 記載の信号符号化装置。
8 . 入力信号を符号化する信号符号化装置において、
入力信号を周波数成分に変換する変換手段と、
上記変換手段の出力をトーン性成分からなる第 1の信号とその他 の成分からなる第 2の信号に分離する分離手段と、
上記第 1の信号の各ト一ン性成分の振幅情報を、 正規化係数を用 いて正規化すると共に正規化された振幅情報を量子化して符号化信 号を生成する第 1の符号化手段と、
上記第 2の信号を符号化する第 2の符号化手段とを備え、 上記第 1の符号化手段は、 上記各ト一ン性成分の極大周波数成分 以外の周波数成分に関する符号化信号を上記符号化信号として出力 することを特徴とする信号符号化装置。
9 . 上記分離手段は、 互いに周波数軸上で重複する周波数成分を 複数回抽出して上記第一の信号とすることを特徴とする請求項 8記 載の信号符号化装置。
1 0 . 上記正規化係数の値は、 小さいものほど精度良く設定する ことを特徵とする請求項 8記載の信号符号化装置。
1 1 . 上記入力信号は、 音響信号であることを特徴とする請求項 8記載の信号符号化装置。
1 2 . 符号化信号が記録された記録媒体において、
可変長符号化されたトーン性成分からなる第一の信号と、 その他の成分からなる第二の信号とを分離して記録してなること を特徴とする記録媒体。
1 3 . 上記第 1の信号は、 各トーン性成分の振幅情報を正規化係 数によって正規化して符号化した信号であることを特徴とする請求 項 1 2記載の記録媒体。
1 4 . 上記第 1の信号は、 複数個の変換規則によって符号化され ていることを特徴とする請求項 1 2又は 1 3記載の記録媒体。
1 5 . 上記複数個の変換規則のうち何れの変換規則で符号化が行 なわれているかは、 トーン性成分の極大周波数成分と各周波数成分 との周波数軸上での相対位置関係によって決めていることを特徴と する請求項 1 4記載の記録媒体。
1 6 . 上記変換規則のうち極大周波数成分に対して適用されてい る変換規則は、 より大きな振幅値情報を持つものに対してより短い 符号への変換を行うものであることを特徴とする請求項 1 4記載の 記録媒体。
1 7 . 上記変換規則のうち極大周波数成分の他の各周波数成分に 対して適用されている変換規則は、 より小さな振幅値情報を持つも のに対してより短い符号への変換を行うものであることを特徴とす る請求項 1 4記載の記録媒体。
1 8 . 記録される信号は音響信号であることを特徴とする請求項 1 2記載の記録媒体。
1 9 . 上記第一の信号は、 極大周波数成分の振幅情報を正規化及 び量子化した情報を除く ト一ン性成分の振幅情報を正規化及び量子 化して符号化した情報と上記正規化の際の正規化係数とを含むこと を特徴とする請求項 1 2記載の記録媒体。
2 0 . 上記第一の信号は、 周波数軸上で重複した複数のトーン性 成分を含むことを特徴とする請求項 1 9記載の記録媒体。
2 1 . 上記正規化のための正規化係数は値が小さいものほど精度 良く設定されている特徴とする請求項 1 9記載の記録媒体。
2 2 . 記録される信号は音響信号であることを特徴とする請求項
1 9記載の記録媒体。
2 3 . 符号化された信号を復号化する信号復号化装置において可 変長符号化されたトーン性成分からなる第一の信号を復号化する第 一の復号化手段と、
その他の成分からなる第二の信号を複号化する第二の復号化手段 と、
各々の信号を合成して逆変換を行うか若しくは各々の信号を逆変 換して合成する合成逆変換手段と
を備えてなることを特徴とする信号複号化装置。
2 4 . 上記第一の信号の各トーン性成分の振幅情報は正規化係数 によって正規化されて符号化されていることを特徴とする請求項 2
3記載の信号複号化装置。
2 5 . 上記第 1の復号化手段は複数個の変換規則によって上記第 1の信号を復号化することを特徴とする請求項 2 3又は 2 4記載の 信号複号化装置。
2 6 . 上記複数個の変換規則のうち何れの変換規則で複号化を行 うかは、 トーン性成分の極大周波数成分と各周波数成分との周波数 軸上での相対位置関係によって決めることを特徴とする請求項 2 5 記載の信号復号化装置。
2 7 . 上記変換規則のうち極大周波数成分に対して適用されてい る変換規則は、 より大きな振幅値情報を持つものに対してより短い 符号への変換を行うものとなっていることを特徴とする請求項 2 5 記載の信号復号化装置。
2 8 . 上記変換規則のうち極大周波数成分以外に対して適用され ている変換規則は、 より小さな振幅値情報を持つものに対してより 短い符号への変換を行うものとなっていることを特徴とする請求項 2 5記載の信号復号化装置。
2 9 . 上記合成逆変換手段は、 音響信号を出力することを特徴と する請求項 2 3記載の信号復号化装置。
3 0 . 符号化された信号を復号化する信号復号化装置において、 正規化され符号化されたトーン性成分からなる第 1の信号を復号 化する第 1 の復号化手段と、
その他の成分からなる第 2の信号を復号化する第 2の復号化手段 と、
各々の信号を合成して逆変換を行うか若しくは各々の信号を逆変 換して合成する合成逆変換手段とを備え、
上記第 1の復号化手段は伝送された正規化係数に基づいて、 上記 トーン性成分の極大周波数成分を再生することを特徴とする信号復 号化装置。
3 1 . 上記第一の信号のト一ン性成分は周波数軸上で重複して符 号化されていることを特徵とする請求項 3 0記載の信号複号化装置 o
3 2 . 上記正規化係数は値が小さいものほど精度良く設定されて いることを特徵とする請求項 3 0記載の信号復号化装置。
3 3 . 上記合成逆変換手段は音響信号を出力することを特徴とす る請求項 3 0記載の信号復号化装置。
3 4 . 入力信号の符号化方法において、
入力信号を周波数成分に変換し、
上記周波数成分をトーン性成分からなる第 1 の信号とその他の成 分からなる第 2の信号に分離し、
上記第 1の信号を可変長符号化し、
上記第 2の信号を符号化することを特徴とする信号符号化方法。
3 5 . 上記第 1の信号の振幅情報を正規化係数によって正規化し た後、 上記可変長符号化を行うことを特徴とする請求項 3 4記載の 信号符号化方法。
3 6 . 上記第 1の信号を複数の異なる変換規則に基づいて可変長 符号化する
ことを特徴とする請求項 3 4又は 3 5記載の信号符号化方法。
3 7 . 上記第 1の信号の信号のうちの極大周波数成分とそれ以外 の周波数成分の周波数軸上での相対位置関係に基づいて上記複数の 異なる変換規則の何れかを選択することを特徴とする請求項 3 6記 載の信号符号化方法。
3 8 . 上記変換規則のうちの極大周波数成分に対して適用される 変換規則は、 より大きな振幅情報に対してより短い符号を割り当て るものであることを特徵とする請求項 3 6記載の信号符号化方法。
3 9 . 上記変換規則のうちの極大周波数成分以外の各周波数成分 に対して適用される変換規則は、 より小さな振幅情報に対してより 短い符号を割り当てるものであることを特徴とする請求項 3 6記載 の信号符号化方法。
4 0 . 入力信号を符号化する信号符号化方法において、
入力信号を周波数成分に変換し、
変換された信号をトーン性成分からなる第 1の信号とその他の成 分からなる第 2の信号に分離し、
上記第 1の信号の各ト一ン性成分の振幅情報を、 正規化係数を用 いて正規化すると共に正規化された振幅情報を量子化して符号化し 上記第 2の信号を符号化し、
上記第 1の信号の符号化のステップは、 上記各トーン性成分の極 大周波数成分以外の周波数成分に関する符号化信号を上記符号化信 号として出力するステップを含むことを特徴とする信号符号化方法
4 1 . 上記分離のステップは、 互いに周波数軸上で重複する周波 数成分を複数回抽出するステップを含むことを特徴とする請求項 4 0記載の信号符号化方法。
4 2 . 上記正規化係数は、 小さいものほど精度良く設定されてい ることを特徴とする請求項 4 0記載の信号符号化方法。
4 3 . 符号化された信号を復号化する信号復号化方法において、 正規化され符号化されたトーン性成分からなる第 1の信号を復号 化し、
その他の成分からなる第 2の信号を復号化し、
各々の信号を合成して逆変換を行うか若しくは各々の信号を逆変 換して合成をおこなって元の信号を再生し、
上記第 1の信号の復号化のステップは、 伝送された正規化係数に 基づいて、 上記ト一ン性成分の極大周波数成分を再生するステツプ を含むことを特徴とする信号復号化方法。
4 4 . 上記第 1の信号は、 互いに周波数軸上で重複した複数のト ーン性成分を含むことを特徴とする請求項 4 3記載の信号復号化方
4 5 . 上記正規化係数は、 値が小さいものほど精度が良いように 設定されていることを特徴とする請求項 4 3記載の信号復号化方法
PCT/JP1994/001056 1993-06-30 1994-06-29 Dispositif de codage de signaux numeriques, son dispositif de decodage, et son support d'enregistrement WO1995001680A1 (fr)

Priority Applications (8)

Application Number Priority Date Filing Date Title
PL94307740A PL173718B1 (pl) 1993-06-30 1994-06-29 Sposób i urządzenie do kodowania sygnałów cyfrowych
DE69428030T DE69428030T2 (de) 1993-06-30 1994-06-29 Digitales signalkodierungsgerät, dazugehöriges dekodiergerät und aufzeichnungsträger
RU95106457A RU2131169C1 (ru) 1993-06-30 1994-06-29 Устройство кодирования сигнала, устройство декодирования сигнала, носитель записи и способ кодирования и декодирования
EP94919822A EP0663739B1 (en) 1993-06-30 1994-06-29 Digital signal encoding device, its decoding device, and its recording medium
BR9405445-2A BR9405445A (pt) 1993-06-30 1994-06-29 Aparelho codificador e decodificador de sinal apropriado para codificar um sinal de entrada e decodificar um sinal codificado, suporte de gravação onde sinais codificados são gravados, e processo de codificação e de decodificação de sinal para codificar um sinal de entrada e decodificar um sinal codificado.
US08/392,756 US5765126A (en) 1993-06-30 1994-06-29 Method and apparatus for variable length encoding of separated tone and noise characteristic components of an acoustic signal
JP50340095A JP3721582B2 (ja) 1993-06-30 1994-06-29 信号符号化装置及び方法並びに信号復号化装置及び方法
PL94322680A PL174314B1 (pl) 1993-06-30 1994-06-29 Sposób i urządzenie do dekodowania sygnałów cyfrowych

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP18332293 1993-06-30
JP5/183322 1993-06-30

Publications (1)

Publication Number Publication Date
WO1995001680A1 true WO1995001680A1 (fr) 1995-01-12

Family

ID=16133682

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1994/001056 WO1995001680A1 (fr) 1993-06-30 1994-06-29 Dispositif de codage de signaux numeriques, son dispositif de decodage, et son support d'enregistrement

Country Status (10)

Country Link
US (1) US5765126A (ja)
EP (2) EP0663739B1 (ja)
JP (1) JP3721582B2 (ja)
KR (1) KR100368854B1 (ja)
CN (2) CN1099777C (ja)
BR (1) BR9405445A (ja)
DE (2) DE69432538T2 (ja)
PL (2) PL174314B1 (ja)
RU (1) RU2131169C1 (ja)
WO (1) WO1995001680A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758316A (en) * 1994-06-13 1998-05-26 Sony Corporation Methods and apparatus for information encoding and decoding based upon tonal components of plural channels
US5870703A (en) * 1994-06-13 1999-02-09 Sony Corporation Adaptive bit allocation of tonal and noise components
JP2003324355A (ja) * 2002-05-07 2003-11-14 Sony Corp 符号化方法及び装置、復号方法及び装置、並びにプログラム及び記録媒体
US8631060B2 (en) 2007-12-13 2014-01-14 Qualcomm Incorporated Fast algorithms for computation of 5-point DCT-II, DCT-IV, and DST-IV, and architectures
JP2016500839A (ja) * 2012-10-10 2016-01-14 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトルパターンを利用することによってシヌソイドおよびスイープを効率的に合成するための装置および方法

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW327223B (en) * 1993-09-28 1998-02-21 Sony Co Ltd Methods and apparatus for encoding an input signal broken into frequency components, methods and apparatus for decoding such encoded signal
US6167093A (en) * 1994-08-16 2000-12-26 Sony Corporation Method and apparatus for encoding the information, method and apparatus for decoding the information and method for information transmission
US5774837A (en) * 1995-09-13 1998-06-30 Voxware, Inc. Speech coding system and method using voicing probability determination
JP3282661B2 (ja) * 1997-05-16 2002-05-20 ソニー株式会社 信号処理装置および方法
PT887958E (pt) * 1997-06-23 2003-06-30 Liechti Ag Metodo para a compressao de gravacoes de ruido ambiente metodo para a deteccao de elementos de programa no mesmo dispositivos e programa de computadorpara tal
US6269332B1 (en) * 1997-09-30 2001-07-31 Siemens Aktiengesellschaft Method of encoding a speech signal
US6965697B1 (en) * 1998-07-15 2005-11-15 Sony Corporation Coding apparatus and method, decoding apparatus and method, data processing system, storage medium, and signal
US6311154B1 (en) 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
US6298322B1 (en) * 1999-05-06 2001-10-02 Eric Lindemann Encoding and synthesis of tonal audio signals using dominant sinusoids and a vector-quantized residual tonal signal
US20020049586A1 (en) * 2000-09-11 2002-04-25 Kousuke Nishio Audio encoder, audio decoder, and broadcasting system
US6801887B1 (en) 2000-09-20 2004-10-05 Nokia Mobile Phones Ltd. Speech coding exploiting the power ratio of different speech signal components
WO2003036619A1 (en) * 2001-10-19 2003-05-01 Koninklijke Philips Electronics N.V. Frequency-differential encoding of sinusoidal model parameters
EP1493146B1 (en) * 2002-04-11 2006-08-02 Matsushita Electric Industrial Co., Ltd. Encoding and decoding devices, methods and programs
US6973579B2 (en) 2002-05-07 2005-12-06 Interdigital Technology Corporation Generation of user equipment identification specific scrambling code for the high speed shared control channel
KR100462611B1 (ko) * 2002-06-27 2004-12-20 삼성전자주식회사 하모닉 성분을 이용한 오디오 코딩방법 및 장치
MXPA05005601A (es) * 2002-11-29 2005-07-26 Koninklije Philips Electronics Codificacion de audio.
SG161223A1 (en) 2005-04-01 2010-05-27 Qualcomm Inc Method and apparatus for vector quantizing of a spectral envelope representation
ES2705589T3 (es) 2005-04-22 2019-03-26 Qualcomm Inc Sistemas, procedimientos y aparatos para el suavizado del factor de ganancia
CN1831940B (zh) * 2006-04-07 2010-06-23 安凯(广州)微电子技术有限公司 基于音频解码器的音调和节奏调节方法
KR101261524B1 (ko) 2007-03-14 2013-05-06 삼성전자주식회사 노이즈를 포함하는 오디오 신호를 저비트율로부호화/복호화하는 방법 및 이를 위한 장치
US8548815B2 (en) 2007-09-19 2013-10-01 Qualcomm Incorporated Efficient design of MDCT / IMDCT filterbanks for speech and audio coding applications
RU2451998C2 (ru) * 2007-09-19 2012-05-27 Квэлкомм Инкорпорейтед Эффективный способ проектирования набора фильтров для mdct/imdct в приложениях для кодирования речи и аудиосигналов
RU2464540C2 (ru) * 2007-12-13 2012-10-20 Квэлкомм Инкорпорейтед Быстрые алгоритмы для вычисления 5-точечного dct-ii, dct-iv и dst-iv, и архитектуры
EP2229677B1 (en) 2007-12-18 2015-09-16 LG Electronics Inc. A method and an apparatus for processing an audio signal
CA2715432C (en) 2008-03-05 2016-08-16 Voiceage Corporation System and method for enhancing a decoded tonal sound signal
US8498874B2 (en) * 2009-09-11 2013-07-30 Sling Media Pvt Ltd Audio signal encoding employing interchannel and temporal redundancy reduction
WO2011045465A1 (en) * 2009-10-12 2011-04-21 Nokia Corporation Method, apparatus and computer program for processing multi-channel audio signals
EP2523473A1 (en) * 2011-05-11 2012-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating an output signal employing a decomposer
JP6021498B2 (ja) 2012-08-01 2016-11-09 任天堂株式会社 データ圧縮装置、データ圧縮プログラム、データ圧縮システム、データ圧縮方法、データ伸張装置、データ圧縮伸張システム、および圧縮データのデータ構造
RU2573248C2 (ru) * 2013-10-29 2016-01-20 Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования Московский технический университет связи и информатики (ФГОБУ ВПО МТУСИ) Способ измерения спектра информационных акустических сигналов телерадиовещания и устройство для его осуществления

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61201526A (ja) * 1985-02-27 1986-09-06 テレフンケン・フエルンゼー・ウント・ルントフンク・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング オーデイオ信号の伝送方法

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3973081A (en) * 1975-09-12 1976-08-03 Trw Inc. Feedback residue compression for digital speech systems
US4170719A (en) * 1978-06-14 1979-10-09 Bell Telephone Laboratories, Incorporated Speech transmission system
US4184049A (en) * 1978-08-25 1980-01-15 Bell Telephone Laboratories, Incorporated Transform speech signal coding with pitch controlled adaptive quantizing
US4455649A (en) * 1982-01-15 1984-06-19 International Business Machines Corporation Method and apparatus for efficient statistical multiplexing of voice and data signals
US4535472A (en) * 1982-11-05 1985-08-13 At&T Bell Laboratories Adaptive bit allocator
JPS59223032A (ja) * 1983-06-01 1984-12-14 Sony Corp ディジタル信号伝送装置
US4748579A (en) * 1985-08-14 1988-05-31 Gte Laboratories Incorporated Method and circuit for performing discrete transforms
JPH0734291B2 (ja) * 1986-07-28 1995-04-12 株式会社日立製作所 デイジタル信号記録再生システム
US4797926A (en) * 1986-09-11 1989-01-10 American Telephone And Telegraph Company, At&T Bell Laboratories Digital speech vocoder
JPH061916B2 (ja) * 1986-10-28 1994-01-05 日本電気株式会社 帯域分割符号化復号化装置
EP0267344B1 (en) * 1986-10-30 1993-09-01 International Business Machines Corporation Process for the multi-rate encoding of signals, and device for carrying out said process
DE3639753A1 (de) * 1986-11-21 1988-06-01 Inst Rundfunktechnik Gmbh Verfahren zum uebertragen digitalisierter tonsignale
JP2751201B2 (ja) * 1988-04-19 1998-05-18 ソニー株式会社 データ伝送装置及び受信装置
NL8700985A (nl) * 1987-04-27 1988-11-16 Philips Nv Systeem voor sub-band codering van een digitaal audiosignaal.
US4827336A (en) * 1987-12-18 1989-05-02 General Electric Company Symbol code generation processing from interframe DPCM of TDM'd spatial-frequency analyses of video signals
IL89672A (en) * 1988-04-29 1994-04-12 Motorola Inc Spectral efficient method of transmitting information signal
JP2638091B2 (ja) * 1988-06-24 1997-08-06 ソニー株式会社 データ伝送方法
CA2002015C (en) * 1988-12-30 1994-12-27 Joseph Lindley Ii Hall Perceptual coding of audio signals
US5109417A (en) * 1989-01-27 1992-04-28 Dolby Laboratories Licensing Corporation Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio
US5142656A (en) * 1989-01-27 1992-08-25 Dolby Laboratories Licensing Corporation Low bit rate transform coder, decoder, and encoder/decoder for high-quality audio
US4932062A (en) * 1989-05-15 1990-06-05 Dialogic Corporation Method and apparatus for frequency analysis of telephone signals
EP0405591B1 (en) * 1989-06-30 1997-10-01 Nec Corporation Varaible length block coding with changing characteristics of input samples
JP2844695B2 (ja) * 1989-07-19 1999-01-06 ソニー株式会社 信号符号化装置
US5054075A (en) * 1989-09-05 1991-10-01 Motorola, Inc. Subband decoding method and apparatus
JPH03109824A (ja) * 1989-09-22 1991-05-09 Sony Corp ディジタル信号符号化装置
JP2906483B2 (ja) * 1989-10-25 1999-06-21 ソニー株式会社 ディジタル音声データの高能率符号化方法及びディジタル音声データの復号化装置
US5115240A (en) * 1989-09-26 1992-05-19 Sony Corporation Method and apparatus for encoding voice signals divided into a plurality of frequency bands
JPH03117919A (ja) * 1989-09-30 1991-05-20 Sony Corp ディジタル信号符号化装置
US5185800A (en) * 1989-10-13 1993-02-09 Centre National D'etudes Des Telecommunications Bit allocation device for transformed digital audio broadcasting signals with adaptive quantization based on psychoauditive criterion
US5040217A (en) * 1989-10-18 1991-08-13 At&T Bell Laboratories Perceptual coding of audio signals
JPH03132228A (ja) * 1989-10-18 1991-06-05 Victor Co Of Japan Ltd 直交変換信号符号化復号化方式
JP2870050B2 (ja) * 1989-10-18 1999-03-10 ソニー株式会社 ディジタルデータの高能率符号化方法
DE69028176T2 (de) * 1989-11-14 1997-01-23 Nippon Electric Co Adaptive Transformationskodierung durch optimale Blocklängenselektion in Abhängigkeit von Unterschieden zwischen aufeinanderfolgenden Blöcken
US5081681B1 (en) * 1989-11-30 1995-08-15 Digital Voice Systems Inc Method and apparatus for phase synthesis for speech processing
JP2827410B2 (ja) * 1990-03-14 1998-11-25 ソニー株式会社 デイジタルデータの高能率符号化方法
JP2913731B2 (ja) * 1990-03-07 1999-06-28 ソニー株式会社 ディジタルデータの高能率符号化方法
JP2861238B2 (ja) * 1990-04-20 1999-02-24 ソニー株式会社 ディジタル信号符号化方法
US5367608A (en) * 1990-05-14 1994-11-22 U.S. Philips Corporation Transmitter, encoding system and method employing use of a bit allocation unit for subband coding a digital signal
US5222289A (en) * 1990-07-10 1993-06-29 Gemcor Engineering Corp. Method and apparatus for fastening
JP3141241B2 (ja) * 1990-08-24 2001-03-05 ソニー株式会社 ディスク記録装置及びディスク再生装置
US5244705A (en) * 1990-08-24 1993-09-14 Sony Corporation Disc-shaped recording medium
US5049992A (en) * 1990-08-27 1991-09-17 Zenith Electronics Corporation HDTV system with receivers operable at different levels of resolution
US5226084A (en) * 1990-12-05 1993-07-06 Digital Voice Systems, Inc. Methods for speech quantization and error correction
US5134475A (en) * 1990-12-11 1992-07-28 At&T Bell Laboratories Adaptive leak hdtv encoder
JP2853717B2 (ja) * 1991-03-08 1999-02-03 日本電気株式会社 可変ビット型adpcmトランスコーダ
EP0506394A2 (en) * 1991-03-29 1992-09-30 Sony Corporation Coding apparatus for digital signals
BR9204799A (pt) * 1991-03-29 1993-07-13 Sony Corp Processo de codificacao para um sinal digital
JP3395192B2 (ja) * 1991-05-25 2003-04-07 ソニー株式会社 ディジタルオーディオ信号再生装置、ディスクプレーヤの再生ポーズ回路及びディスク再生装置の再生制御回路
GB2257606B (en) * 1991-06-28 1995-01-18 Sony Corp Recording and/or reproducing apparatuses and signal processing methods for compressed data
DE69232251T2 (de) * 1991-08-02 2002-07-18 Sony Corp., Tokio/Tokyo Digitaler Kodierer mit dynamischer Quantisierungsbitverteilung
GB2258372B (en) * 1991-08-02 1995-05-31 Sony Corp Apparatus for and methods of recording and/or reproducing digital data
JP3178026B2 (ja) * 1991-08-23 2001-06-18 ソニー株式会社 ディジタル信号符号化装置及び復号化装置
JP3141450B2 (ja) * 1991-09-30 2001-03-05 ソニー株式会社 オーディオ信号処理方法
DE69227570T2 (de) * 1991-09-30 1999-04-22 Sony Corp., Tokio/Tokyo Verfahren und Anordnung zur Audiodatenkompression
JP3134455B2 (ja) * 1992-01-29 2001-02-13 ソニー株式会社 高能率符号化装置及び方法
JP3104400B2 (ja) * 1992-04-27 2000-10-30 ソニー株式会社 オーディオ信号符号化装置及び方法
KR0150955B1 (ko) * 1992-05-27 1998-10-15 강진구 비트고정을 위한 영상압축방법과 신장방법 및 그 장치
JPH0629934A (ja) * 1992-07-10 1994-02-04 Nippon Hoso Kyokai <Nhk> 適応差分符号化伝送方法
JP3508146B2 (ja) * 1992-09-11 2004-03-22 ソニー株式会社 ディジタル信号符号化復号化装置、ディジタル信号符号化装置及びディジタル信号復号化装置
JP3343962B2 (ja) * 1992-11-11 2002-11-11 ソニー株式会社 高能率符号化方法及び装置
JP3186413B2 (ja) * 1994-04-01 2001-07-11 ソニー株式会社 データ圧縮符号化方法、データ圧縮符号化装置及びデータ記録媒体

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61201526A (ja) * 1985-02-27 1986-09-06 テレフンケン・フエルンゼー・ウント・ルントフンク・ゲゼルシヤフト・ミツト・ベシユレンクテル・ハフツング オーデイオ信号の伝送方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0663739A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5758316A (en) * 1994-06-13 1998-05-26 Sony Corporation Methods and apparatus for information encoding and decoding based upon tonal components of plural channels
US5870703A (en) * 1994-06-13 1999-02-09 Sony Corporation Adaptive bit allocation of tonal and noise components
JP2003324355A (ja) * 2002-05-07 2003-11-14 Sony Corp 符号化方法及び装置、復号方法及び装置、並びにプログラム及び記録媒体
US8631060B2 (en) 2007-12-13 2014-01-14 Qualcomm Incorporated Fast algorithms for computation of 5-point DCT-II, DCT-IV, and DST-IV, and architectures
JP2016500839A (ja) * 2012-10-10 2016-01-14 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトルパターンを利用することによってシヌソイドおよびスイープを効率的に合成するための装置および方法
US9570085B2 (en) 2012-10-10 2017-02-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for efficient synthesis of sinusoids and sweeps by employing spectral patterns
JP2018036668A (ja) * 2012-10-10 2018-03-08 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトルパターンを利用することによってシヌソイドおよびスイープを効率的に合成するための装置および方法

Also Published As

Publication number Publication date
KR950703231A (ko) 1995-08-23
BR9405445A (pt) 1999-09-08
JP3721582B2 (ja) 2005-11-30
RU2131169C1 (ru) 1999-05-27
EP1083674A3 (en) 2001-04-11
PL173718B1 (pl) 1998-04-30
DE69428030T2 (de) 2002-05-29
EP1083674B1 (en) 2003-04-16
KR100368854B1 (ko) 2003-05-17
PL174314B1 (pl) 1998-07-31
DE69428030D1 (de) 2001-09-27
PL307740A1 (en) 1995-06-12
DE69432538T2 (de) 2004-04-01
US5765126A (en) 1998-06-09
EP0663739A1 (en) 1995-07-19
CN1217502C (zh) 2005-08-31
EP0663739A4 (en) 1998-09-09
EP1083674A2 (en) 2001-03-14
DE69432538D1 (de) 2003-05-22
CN1440144A (zh) 2003-09-03
CN1113096A (zh) 1995-12-06
CN1099777C (zh) 2003-01-22
EP0663739B1 (en) 2001-08-22

Similar Documents

Publication Publication Date Title
JP3336617B2 (ja) 信号符号化又は復号化装置,及び信号符号化又は復号化方法,並びに記録媒体
US5765126A (en) Method and apparatus for variable length encoding of separated tone and noise characteristic components of an acoustic signal
JP3203657B2 (ja) 情報符号化方法及び装置,情報復化方法及び装置,情報伝送方法,並びに情報記録媒体
JP3371590B2 (ja) 高能率符号化方法及び高能率復号化方法
JP3277692B2 (ja) 情報符号化方法、情報復号化方法及び情報記録媒体
EP0645769A2 (en) Signal encoding or decoding apparatus and recording medium
JP3318931B2 (ja) 信号符号化装置、信号復号化装置及び信号符号化方法
JPH0846518A (ja) 情報符号化方法及び復号化方法、情報符号化装置及び復号化装置、並びに情報記録媒体
US6995699B2 (en) Encoding method, and encoding apparatus, and decoding method and decoding apparatus
JP3685823B2 (ja) 信号符号化方法及び装置、並びに信号復号化方法及び装置
JP3475985B2 (ja) 情報符号化装置および方法、情報復号化装置および方法
JP3465697B2 (ja) 信号記録媒体
JP3465698B2 (ja) 信号復号化方法及び装置
JPH09135173A (ja) 符号化装置および符号化方法、復号化装置および復号化方法、伝送装置および伝送方法、並びに記録媒体
MXPA95004960A (en) Method and information coding device, method and information decoding device, method of transmission of information, and means of registration of information
JPH11220402A (ja) 情報符号化装置および方法、並びに提供媒体
JPH10107640A (ja) 信号再生装置および方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): BR CN JP KR PL RU US VN

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 1994919822

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 08392756

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1994919822

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1994919822

Country of ref document: EP