WO1998046045A1 - Procede et dispositif de codage, procede et dispositif de decodage et support d'enregistrement - Google Patents

Procede et dispositif de codage, procede et dispositif de decodage et support d'enregistrement Download PDF

Info

Publication number
WO1998046045A1
WO1998046045A1 PCT/JP1998/001672 JP9801672W WO9846045A1 WO 1998046045 A1 WO1998046045 A1 WO 1998046045A1 JP 9801672 W JP9801672 W JP 9801672W WO 9846045 A1 WO9846045 A1 WO 9846045A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
signals
encoding
channels
decoding
Prior art date
Application number
PCT/JP1998/001672
Other languages
English (en)
French (fr)
Inventor
Osamu Shimoyoshi
Kyoya Tsutsui
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP98912767A priority Critical patent/EP0924962B1/en
Priority to US09/202,157 priority patent/US6741965B1/en
Priority to JP54260898A priority patent/JP3887827B2/ja
Publication of WO1998046045A1 publication Critical patent/WO1998046045A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H20/00Arrangements for broadcast or for distribution combined with broadcast
    • H04H20/86Arrangements characterised by the broadcast information itself
    • H04H20/88Stereophonic broadcast systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H40/00Arrangements specially adapted for receiving broadcast information
    • H04H40/18Arrangements characterised by circuits or components specially adapted for receiving
    • H04H40/27Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95
    • H04H40/36Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving
    • H04H40/45Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving for FM stereophonic broadcast systems receiving
    • H04H40/72Arrangements characterised by circuits or components specially adapted for receiving specially adapted for broadcast systems covered by groups H04H20/53 - H04H20/95 specially adapted for stereophonic broadcast receiving for FM stereophonic broadcast systems receiving for noise suppression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form

Definitions

  • the present invention is suitable for extending the format of an encoded signal.
  • Encoding method and apparatus, and decoding corresponding thereto TECHNICAL FIELD The present invention relates to an encoding method and apparatus, and a recording medium on which an encoded signal is recorded.
  • a signal recording medium such as a magneto-optical disk has been proposed as a device capable of recording a signal such as encoded audio information or audio information (hereinafter referred to as an audio signal).
  • an audio signal has been proposed as a device capable of recording a signal such as encoded audio information or audio information (hereinafter referred to as an audio signal).
  • One example of the high-efficiency encoding method is to block an audio signal on the time axis in a predetermined time unit, and to set the time axis for each block. This signal is converted into a signal on the frequency axis (spectrum conversion), divided into a plurality of frequency bands, and is encoded by each band.
  • a non-blocking frequency band division method in which the audio signal on the time axis is divided into a plurality of frequency bands without being blocked, so-called band division coding (sub 'band' coding: SBC) And the like.
  • band division coding sub 'band' coding: SBC
  • SBC band division coding
  • the signal of each band is converted into a signal on the frequency axis by a spectrum, and each of the spectrum-converted signals is converted. Encoding is performed for each band.
  • a filter for band division used in the above-described band division coding there is a filter such as a so-called QMF (Quadrature Mirror filter). This is described in “Digital coding of speech in subbands” (RE Crochiere, Bell System. Tech. J., Vol. 55, No. 8 1976). This filter of QMF divides the band into two equal bandwidths. In this filter, so-called aliasing does not occur when combining the divided bands later. Has become. Also, literature
  • Polyphase Quadrature filters-A new subband coding technique Joseph H. Rothweiler, ICASSP 83, BOSTON, etc. A bandwidth fill scheme is described.
  • the characteristic of the polyphase aid quadrature filter is that the signal can be divided at once when it is divided into multiple bands of equal bandwidth.
  • spectral transform for example, an input audio signal is divided into blocks in a predetermined unit time (frame), and a discrete Fourier transform (DFT), a discrete cosine transform (Discrete Cosine Transform: DCT), Modified Discrete Cosine Transform (Modified Discrete Cosine Transform: MDCT)
  • DFT discrete Fourier transform
  • DCT discrete cosine transform
  • MDCT Modified Discrete Cosine Transform
  • MDCT Modified Discrete Cosine Transform
  • this block is referred to as a conversion block.
  • M 1 sample data is overlapped on each of the transform blocks on both sides, so that these DFTs and DCTs are averaged.
  • M pieces of real number data can be obtained for (M ⁇ M 1) samples of data, so that these M pieces of real number data are subsequently quantized and coded.
  • the conversion block for the spectrum conversion when the conversion block for the spectrum conversion is lengthened, the frequency resolution is increased, and energy is concentrated on a specific spectrum signal component. Therefore, the spectrum conversion is performed with a long conversion block length in which the sample data is overlapped by half each between the conversion blocks on both sides, and the number of obtained spectrum signal components is reduced to the original time. If to use the MDCT that does not increase with respect to the number of sample data of the axis, DFT also or DCT becomes possible to perform efficient coding than the case of using c, conversion proc adjacent to By providing a sufficiently long overlap, the connection distortion between the conversion blocks of the waveform signal can be reduced.
  • a frequency division width when quantizing each signal component obtained by dividing an audio signal into frequency bands, it is preferable to use a bandwidth in consideration of, for example, human auditory characteristics. That is, it is preferable to divide the audio signal into a plurality of (for example, 25 bands) bands, which are generally called critical bands in which the higher the band, the wider the bandwidth.
  • encoding data for each band encoding is performed by a predetermined bit allocation for each band or by adaptive bit allocation (bit allocation) for each band.
  • bit allocation adaptive bit allocation
  • bits are allocated based on the signal magnitude of each band.
  • the quantization noise spectrum is flattened and the noise energy is minimized, but the actual noise sensation is not optimal because the masking effect is not used in terms of hearing.
  • a real bit allocation reference value that achieves the signal-to-noise characteristic obtained by calculation as closely as possible is determined, and an integer value that approximates it is used as the number of allocated bits.
  • an integer value that approximates it is used as the number of allocated bits.
  • quantization accuracy information and normalization coefficient information are encoded with a predetermined number of bits for each band in which normalization and quantization are performed. What is necessary is just to encode the quantized spectrum signal component.
  • the IS0 standard (IS0 / IEC 1 1 1 7 2-3: 1 993 (E), 1 993) specifies that the number of bits representing quantization accuracy information differs depending on the band.
  • a high-efficiency coding method is described here, and is standardized so that the number of bits representing quantization accuracy information decreases as the frequency band increases.
  • the decoding device determines the quantization accuracy information from the normalization coefficient information, for example. Since the relationship between the information and the quantization accuracy information is determined, it will not be possible to introduce quantization accuracy control based on a more advanced auditory model in the future. If there is a range of compression rates to be realized, it is necessary to determine the relationship between the normalization coefficient information and the quantization accuracy information for each compression rate.
  • PCT International Publication W094 / 28633 include, in the specification and the drawings, a component that is particularly important in the sense of hearing from the spectral signal component and separate the other spectral signal.
  • a method of encoding separately from the components has been proposed, which makes it possible to efficiently encode audio signals and the like at a high compression ratio with almost no deterioration in auditory perception. Has become.
  • each of the above-described encoding methods can be applied to each channel of an audio signal including a plurality of channels. For example, it may be applied to each of the L channel corresponding to the left speaker and the R channel corresponding to the right speaker. Further, it is also possible to apply to (L + R) / 2 signals obtained by adding the signals of the L channel and the R channel. It is also possible to perform efficient coding on the (L + R) / 2 signal and the (L ⁇ R) / 2 signal using the above-described methods.
  • the amount of data required to encode a one-channel signal is half that required to encode a two-channel signal independently, so when recording a signal on a recording medium, A method is often adopted in which both a mode for recording with a monaural signal and a mode for recording with a two-channel stereo signal are provided, and when long-term recording is required, the standard is set so that the signal can be recorded as a monaural signal. ing.
  • flag information and the like relating to the standard can be recorded in advance on the signal recording medium in consideration of the case where the standard is changed or extended in the future.
  • a common practice is to leave room. That is, for example, when performing standardization for the first time, “0” should be recorded as 1-bit flag information, and When the status is changed, “1” is recorded in the flag information.
  • the playback device corresponding to the changed standard checks whether the flag information is “0” or “1”. If the flag information is “1”, the signal from the signal recording medium is output based on the changed standard. Is read and reproduced. If the flag information is “0”, if the playback device also complies with the first established standard, read the signal from the signal recording medium based on that standard and reproduce it. If it does not, do not reproduce the signal.
  • a playback device that can only reproduce signals that have been recorded in accordance with a once established standard (hereinafter referred to as “old standard” or “first encoding method”) (hereinafter referred to as “old standard compatible playback”) (hereinafter referred to as “old standard compatible playback”)
  • old standard compatible playback With the spread of “devices”, this older standard-compatible playback device uses higher-efficiency encoding methods (hereinafter referred to as “new standards” or “second encoding methods”). Cannot reproduce the recording medium recorded by using this function, which confuses the user of the device.
  • the playback device at the time when the old standard was determined ignores the flag information recorded on the recording medium, and all signals recorded on the recording medium conform to the old standard. Some of them are reproduced as encoded. In other words, even if the recording medium is recorded based on the new standard, not all old standard-compatible playback devices can identify that. For this reason, in the case where the reproduction device compatible with the old standard reproduces a recording medium on which a signal based on the new standard is recorded as being interpreted as a recording medium on which a signal based on the old standard is recorded, for example. May not work properly or generate severe noise. In order to solve this problem, the applicant of the present application
  • the message signal can be reproduced when played back on an old standard-compatible playback device, so that it can be easily recorded on a low-cost new standard-compatible recording device.
  • the message signal is played back in accordance with the part recorded in the new standard, so that which songs are actually played back in the old standard.
  • the applicant of the present application has proposed an encoding method that encodes a multi-channel signal for each frame whose size cannot be controlled by an encoder.
  • the signal of the channel to be reproduced by the old standard-compatible reproducing apparatus is encoded with a smaller number of bits than the maximum number of bits that can be allocated in the frame.
  • the encoding method of the channel signal which is not reproduced by the old standard-compatible reproducing apparatus has higher encoding efficiency than the encoding method of the old standard. It is possible to reduce the resulting sound quality deterioration.
  • FIGS. 1A to 1H show the state of quantization noise generated when encoding and decoding a general stereo signal and reproducing the signal in these methods.
  • FIGS. 1A and 1B show the time axis waveforms of the left channel component (L) of the stereo signal and the right channel component (R) of the stereo signal, respectively
  • FIGS. 1C and 1D show the L and R channel components ( L-R) / 2 and (L-R) / 2 represent the time axis waveforms of the signals converted to channels, respectively.
  • (L + R) / 2 is represented by A
  • (L-I / 2 is represented by B.
  • the level of quantization noise often depends on the original signal level. In this case, the signal level of N2 is much smaller than N1.
  • FIGS. 1G and 1H show how the channels of the stereo signal are separated from the signal waveforms of (A + Nl) and (B + N2). By adding the signals (A + N1) and (B + N2), the R channel component disappears and only the L component can be extracted. Also, the signal of (A + N1) to (B + N2) By subtracting, the L channel component disappears and only the R channel component can be extracted.
  • the quantization noise components N 1 and N 2 are (N 1 + N2) or (N 1—N 2) However, since the level of N 2 is extremely small compared to N 1, there is no particular problem in hearing.
  • FIGS. 2A and 2H similarly show the state of quantization noise for a stereo signal in which the signal level of the right channel (R) is much smaller than the signal level of the left channel (L).
  • Figures 2A and 2B show the time axis waveforms of the left channel component (L) of the stereo signal and the right channel component (R) of the stereo signal, respectively.
  • Figures 2C and 2D show the L and R channel components, respectively. The time axis waveform of the signal converted to (L + R) / 2 and (LR) / 2 is shown.
  • (L + R) / 2 is represented by A
  • (L-R) / 2 is represented by B, as in the example of FIG.
  • the time axis waveform of each component is shown.
  • FIGs 2G and 2H also show the situation where each channel of the stereo signal is separated from the signal waveforms of (A + Nl) and (B + N2), as in Figure 1.
  • the R channel component disappears, only the L component can be extracted
  • (A + N By subtracting the signal of (B + N 2) from 1), the L channel component disappears and only the R channel component can be extracted.
  • the quantization noise components N 1 and N 2 are (N 1 + N
  • the present invention has been made in view of such circumstances, and has been developed in view of encoding / decoding that realizes multi-channel by extension of a new standard while enabling reproduction by an old standard-compatible reproducing apparatus.
  • An object of the present invention is to provide an encoding method and apparatus, a decoding apparatus, and a recording medium capable of minimizing quantization noise generated by encoding and reducing sound quality deterioration.
  • the present invention provides an encoding / decoding method for realizing multi-channel by expansion of a new standard while enabling reproduction by an old standard-compatible reproduction apparatus, for example, and optimally selects a channel signal of an expansion part according to an input signal.
  • the sound quality degradation is reduced by minimizing the quantization noise generated by encoding.
  • An encoding method generates a first signal from signals of a plurality of input channels, obtains signal levels of some of the plurality of input channels and other channels, and, based on the signal levels, , A second signal consisting only of signals of some channels and signals of multiple input channels , And encodes the first signal and the selected second signal.
  • An encoding device includes: first signal generation means for generating a first signal from signals of a plurality of input channels; Second signal generation means for selecting any one of a second signal consisting only of signals of some channels and a second signal generated from signals of a plurality of input channels, based on the first signal, Encoding means for encoding the selected second signal.
  • the decoding method separates a first coded signal, a second coded signal, and configuration information indicating a configuration state of a channel signal included in the second coded signal from a code sequence. Then, the separated first and second encoded signals are respectively decoded to generate first and second signals, and a plurality of channel signals are generated from the first and second signals based on the configuration information. Select the restoration process to perform.
  • the decoding method according to the present invention is based on a first coded signal generated and coded from signals of a plurality of channels, and a signal level of a part of channels of the plurality of channels and a signal level of another channel. From a code string including a second signal composed of only some channel signals or a second encoded signal selected and encoded from a second signal generated from a plurality of channel signals. The first and second encoded signals are separated, the separated first and second encoded signals are respectively decoded, and signals of a plurality of channels are restored from the decoded first and second signals.
  • the decoding device is configured such that a first coded signal, a second coded signal, and a channel signal included in the second coded signal are configured from the code sequence.
  • Separation means for separating the configuration information indicating the configuration state, decoding means for decoding the separated first and second encoded signals, respectively, to generate first and second signals, and based on the configuration information.
  • control means for selecting restoration processing for generating a plurality of channel signals from the first and second signals.
  • a decoding device is configured to generate a first coded signal generated and coded from signals of a plurality of channels, and a signal level of some of the plurality of channels and signal levels of other channels. From a code string including a second coded signal selected and coded from either a second signal composed of only some channel signals or a second signal generated from a plurality of channel signals. Separation means for separating the first and second encoded signals; decoding means for decoding the separated first and second encoded signals, respectively; and decoding means for decoding the first and second signals. Restoration means for restoring signals of a plurality of channels.
  • FIGS. 1A to 1H are diagrams used to describe the state of quantization noise generated when a general stereo signal is encoded and decoded by a conventional technique and reproduced.
  • FIG. 9 is a diagram used for describing the state of quantization noise.
  • FIG. 3 shows an embodiment of a recording / reproducing apparatus for compressed data according to the present invention.
  • 1 is a block circuit diagram illustrating a configuration example of a recording / reproducing apparatus according to an embodiment.
  • FIG. 4 is a block circuit diagram showing a specific configuration example of the encoding device.
  • FIG. 5 is a block circuit diagram showing a specific configuration example of the conversion circuit.
  • FIG. 6 is a block circuit diagram showing a specific configuration example of the signal component encoding circuit.
  • FIG. 7 is a block circuit diagram showing a specific configuration example of the decoding device.
  • FIG. 8 is a block circuit diagram showing a specific configuration example of the inverse conversion circuit.
  • FIG. 9 is a block diagram showing a specific configuration example of the signal component decoding circuit.
  • FIG. 10 is a diagram for explaining a basic encoding method.
  • FIG. 11 is a diagram for explaining a configuration of a code sequence of a frame encoded by a basic encoding method.
  • FIG. 12 is a diagram showing an example in which L and R channels are arranged for each frame.
  • FIG. 13 is a diagram illustrating an example of arranging (L + R) Z2 channels in a frame.
  • FIG. 14 is a diagram for explaining an encoding method for encoding a signal component by dividing it into a tone component and a noise component.
  • FIG. 15 is a diagram for explaining the configuration of a code sequence of a frame encoded by an encoding method in which a signal component is encoded into tone components and noise components.
  • FIG. 16 is a block circuit diagram showing a specific configuration example of a signal component encoding circuit that encodes a signal component by dividing it into a tone component and a noise component.
  • Fig. 17 shows a specific configuration example of a signal component decoding circuit that decodes an encoded signal by dividing a signal component into a tone component and a noise component.
  • FIG. 18 is a diagram for explaining a recording format when recording a code string of the A codec.
  • FIG. 19 is a diagram for explaining a recording format when recording the code strings of the A codec and the B codec.
  • FIG. 20 is a diagram for explaining a recording format that realizes that the codec of the A codec and the B codec is not mistakenly reproduced by the old-standard-compliant playback device when the codec is recorded.
  • FIG. 21 is a diagram for explaining a configuration of a code string for arranging signals of the A codec and the B codec in a frame.
  • FIG. 22 is a block circuit diagram showing a specific configuration of an encoding device that generates a code string in which signals of the A codec and the B codec are arranged in a frame.
  • FIG. 23 is a flowchart illustrating a processing example of an encoding device that generates a code sequence for arranging the signals of the A codec and the B codec in a frame.
  • FIG. 24 is a block circuit diagram showing a specific configuration of a signal component decoding device that decodes a code string for arranging A codec and B codec signals in a frame.
  • FIG. 25 is a flowchart illustrating a processing example of a signal component decoding device that decodes a code string in which signals of the A codec and the B codec are arranged in a frame.
  • FIG. 26 is a diagram for explaining the configuration of the code string according to the embodiment of the present invention in which the channel configuration data and the A-channel and B-channel signals are arranged in a frame.
  • FIG. 27 is a block circuit diagram showing a specific configuration of a coding apparatus for generating a code string according to the embodiment of the present invention in which channel configuration data and signals of A and B channels are arranged in a frame. is there.
  • FIG. 28 is a flowchart showing the flow of processing of the control circuit of the encoding device for generating a code sequence according to the embodiment of the present invention.
  • FIG. 29 is a flowchart showing a processing example of the coding apparatus according to the embodiment of the present invention for generating a code string in which a channel configuration data and A-channel and B-channel signals are arranged in a frame. .
  • FIG. 30 is a block circuit diagram showing a specific configuration of an encoding device according to an embodiment of the present invention that decodes a code string in which channel configuration data and A-channel and B-channel signals are arranged in a frame. is there.
  • FIG. 31 is a flowchart showing the flow of the process performed by the decoding device for decoding the code string according to the embodiment of the present invention.
  • FIG. 32 is a flowchart showing a flow of a process of determining a decoding mode in the decoding device for decoding a code string according to the embodiment of the present invention.
  • FIGS. 33A to 33H illustrate encoding and decoding of a stereo signal in which the signal level of the right channel (R) is much smaller than the signal level of the left channel (L) according to the embodiment of the present invention.
  • FIG. 9 is a diagram used to explain the state of quantization noise that occurs when reproduction is performed.
  • BEST MODE FOR CARRYING OUT THE INVENTION BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 3 shows a schematic configuration of a compressed data recording and / or reproducing apparatus to which an embodiment of the present invention is applied.
  • a magneto-optical disk 1 driven by a spindle motor (M) 51 is first used as a recording medium.
  • M spindle motor
  • the recording track of the magneto-optical disk 1 is traced with a laser beam by the optical head 53 and magneto-optical reproduction is performed.
  • the optical head 53 includes, for example, a laser light source such as a laser diode, an optical component such as a collimating lens, an objective lens, a polarizing beam splitter, and a cylindrical lens, and a photodetector having a light receiving section having a predetermined pattern. It is composed of The optical head 53 is provided at a position facing the magnetic head 54 via the magneto-optical disk 1.
  • a magnetic head 54 is driven by a magnetic head drive circuit 66 of a recording system to be described later to apply a modulation magnetic field corresponding to the recording data.
  • the target track of the magneto-optical disk 1 is irradiated with laser light by the optical head 53 to perform thermomagnetic recording by a magnetic field modulation method.
  • the optical head 53 detects the reflected light of the laser beam applied to the target track, for example, detects a focus error by a so-called astigmatism method, and detects a tracking error by a so-called push-pull method, for example. .
  • the optical head 53 detects the above-mentioned focus error and tracking error, and at the same time, changes the polarization angle (Kerr rotation angle) of the reflected light of the laser beam from the target track. To Upon detection, a reproduction signal is generated.
  • the output of the optical head 53 is supplied to an RF circuit 55.
  • the RF circuit 55 extracts the focus error signal and the tracking error signal from the output of the optical head 53 and supplies the signals to the servo control circuit 56.
  • the servo control circuit 56 includes, for example, a focus servo control circuit, a tracking servo control circuit, a spindle motor servo control circuit, a thread servo control circuit, and the like.
  • the focus servo control circuit performs focus control of the optical system of the optical head 53 so that the focus error signal becomes zero.
  • the tracking servo control circuit controls the tracking of the optical system of the optical head 53 so that the tracking error signal becomes zero.
  • the spindle motor servo control circuit controls the spindle motor 51 so as to rotate the magneto-optical disk 1 at a predetermined rotation speed (for example, a constant linear speed).
  • the thread servo control circuit moves the optical head 53 and the magnetic head 54 to the target track position of the magneto-optical disk 1 specified by the system controller 57.
  • the servo control circuit 56 that performs such various control operations sends information indicating the operation state of each unit controlled by the servo control circuit 56 to the system controller 57.
  • a key input operation unit 58 and a display unit (display) 59 are connected to the system controller 57.
  • the system controller 57 controls the recording system and the reproduction system based on the operation input information based on the operation input information from the key input operation unit 58.
  • the system controller Reference numeral 57 denotes an optical head 53 and a magnetic head 54 based on sector-based address information reproduced from a recording track of the magneto-optical disk 1 by a header time, a subcode Q data, or the like. Manages the recording position and playback position on the above recording track. Further, the system controller 57 performs control to display the reproduction time on the display section 59 based on the data compression ratio of the present compressed data recording / reproducing apparatus and the reproduction position information on the recording track.
  • This playback time display is based on the so-called header time from the recording track of the magneto-optical disk 1 or the sector-based address information (absolute time information) played back by the so-called subcode Q-delay.
  • the actual time information is obtained by multiplying the reciprocal of the compression ratio (for example, 4 for 1Z4 compression), and this is displayed on the display unit 59.
  • the preformatted absolute time information is read to perform data compression. By multiplying the reciprocal of the rate, it is possible to display the current position with the actual recording time.
  • the analog audio input signal A in from the input terminal 60 is supplied to the A / D converter 62 via the low-pass filter (LPF) 61, A / D converter
  • the 62 quantizes the analog audio input signal A in.
  • the digital audio signal obtained from the A / D converter 62 is supplied to an ATC (Adaptive Transform Coding) encoder 63.
  • the digital audio input signal D in from the input terminal 67 is connected to the digital input / output interface circuit (digital input) 68 via the ATC. It is supplied to the encoder 63.
  • the ATC encoder 63 compresses the input signal Ain by the A / D converter 62 into digital audio PCM data at a predetermined transfer rate and performs bit compression according to a predetermined data compression rate. (Data compression) Processing is performed.
  • the compressed data (ATC data) output from the ATC encoder 63 is supplied to the memory 64. For example, if the data compression rate is 1/8, the data transfer rate here is the data transfer rate of the standard CD-DA format (75 sectors / Second) (9.375 sector / second).
  • the writing and reading of data are controlled by the system controller 57, and the ATC data supplied from the ATC encoder 63 is temporarily stored. It is used as a buffer memory for recording on a disk. That is, for example, when the data compression ratio is 1/8, the data rate of the compressed audio data supplied from the ATC encoder 63 is the data transfer rate of the standard CD_DA format. This is reduced to 1/8 of (75 sectors / second), that is, 9.375 sectors / second, and the compressed data is continuously written to the memory 64. As for the compressed data (ATC data), it is sufficient to record one sector per eight sectors as described above. However, such recording every eight sectors is practically impossible, so It is designed to record consecutive sectors.
  • This recording uses the same data transfer rate (75 sectors) as the standard CD-DA format, with the recording unit consisting of a class consisting of a predetermined plurality of sectors (for example, 32 sectors and more than 10 sectors) throughout the idle period. Evening / second).
  • the data compression rate of 1/8 that was continuously written at a low transfer rate of 9.375 ( 75/8) sectors / second corresponding to the above bit compression rate
  • ATC audio data is read out in bursts at a transfer rate of 75 sectors / sec as described above.
  • the overall data transfer rate, including the recording pause period, is as low as 9.375 sectors / sec.
  • the instantaneous data transfer rate within the time of the recording operation performed at the time is the standard 75 sectors / second described above.
  • the disk rotation speed is the same speed (constant linear speed) as the standard CD-DA format
  • recording with the same recording density and storage pattern as the CD-DA format is performed.
  • the ATC audio data that is burst-read from the memory 64 at the above (instantaneous) transfer rate of 75 sectors / second, that is, the recorded data, is supplied to the encoder 65.
  • the unit of continuous recording in one recording is a class set consisting of a plurality of sectors (for example, 32 sectors) and before and after the class set. It has several sectors for class connection at the location.
  • the class connection sector is set to be longer than the length of the in-leave in the encoder 65 so that even if the in-leave is left, it does not affect the de- night of other classes.
  • the encoder 65 performs encoding processing for error correction (parity addition and in-recovery processing) and EFM encoding processing on the recording data supplied in a burst manner from the memory 64 as described above. And so on.
  • the recording data subjected to the encoding process by the encoder 65 is supplied to the magnetic head drive circuit 66.
  • This magnetic head drive circuit The path 66 is connected to a magnetic head 54, and drives the magnetic head 54 so that a modulation magnetic field corresponding to the recording data is applied to the magneto-optical disk 1.
  • the system controller 57 performs the above-described memory control on the memory 64, and stores the above-described recording data, which is burst-read from the memory 64 by this memory control, on the recording track of the magneto-optical disk 1.
  • the recording position is controlled so as to continuously record.
  • the control of the recording position is performed by controlling the recording position of the recording data read out from the memory 64 by the system controller 57 in a burst manner and designating the recording position on the recording track of the magneto-optical disk 1. This is done by supplying signals to the servo control circuit 56.
  • This reproducing system will be described. This reproducing system is for reproducing the recorded data continuously recorded on the recording tracks of the magneto-optical disk 1 by the recording system described above.
  • a decoder 71 is provided, in which a reproduction output obtained by tracing one recording track with a laser beam is binarized by an RF circuit 55 and supplied. At this time, not only the magneto-optical disk but also the same read-only optical disk as the so-called compact disk (CD: Compact Disc) can be read.
  • CD Compact Disc
  • the decoder 71 corresponds to the encoder 65 in the recording system described above, and performs decoding processing as described above for error correction and EFM on the reproduced output binarized by the RF circuit 55. Performs processing such as decoding, and plays back the ATC audio data with a data compression rate of 1/8 above at a transfer rate of 5 sectors / second, which is faster than the regular transfer rate.
  • the reproduced data obtained by the decoder 71 is stored in a memory Supplied to 72.
  • the memory 72 is controlled by the system controller 57 to write and read data overnight, and the playback data supplied from the decoder 71 at a transfer rate of 75 sectors / second is 75 sectors / second. It is written in burst at the transfer speed of.
  • the memory 72 stores the reproduction data written in a burst at the transfer rate of 75 sectors / sec. In the memory 72 corresponding to the data compression rate of 1/8. It is read continuously at a transfer rate of seconds.
  • the system controller 57 writes the playback data to the memory 72 at a transfer rate of 75 sectors / second, and simultaneously writes the playback data from the memory 72 at the transfer rate of 9.3 75 sectors / second. Performs memory control to read continuously. Further, the system controller 57 performs the above-mentioned memory control for the memory 72, and the reproduction data written in a burst from the memory 72 by this memory control is recorded on the recording track of the magneto-optical disk 1.
  • the playback position is controlled so that playback is continued from the beginning.
  • the playback position is controlled by controlling the playback position of the playback data read out from the memory 72 in a burst manner by the system controller 57 and recording tracks of the magneto-optical disk 1 or the magneto-optical disk 1. This is performed by supplying a control signal designating the above playback position to the servo control circuit 56.
  • the ATC audio data obtained as read data continuously read out from the memories 72 to 9.375 sectors / second is supplied to the ATC decoder 73.
  • the ATC decoder 73 corresponds to the ATC encoder 63 of the recording system. For example, by expanding the ATC data by 8 times (bit expansion), the 16-bit digital data is expanded. Play audio data.
  • the digital audio data from the ATC decoder 73 is supplied to a D / A converter 74.
  • the D / A converter 74 converts the digital audio data supplied from the ATC decoder 73 into an analog signal, and forms an analog audio output signal Aout.
  • the analog audio signal Aout obtained by the D / A converter 74 is output from an output terminal 76 via a one-pass filter (LPF) 75.
  • LPF one-pass filter
  • the input signal waveform 110a is converted by the conversion circuit 111a.
  • the signal frequency component 110b is converted to a signal frequency component 110b, and each obtained frequency component 110b is encoded by a signal component encoding circuit 111b.
  • a code string 110d is generated from the coded signal 110c generated by the conversion circuit 111b.
  • the input signal 120a is divided into two bands by a band division filter 112a as shown in FIG. 120c is converted into spectrum signal components 120d and 120e by forward spectrum conversion circuits 112b and 112c using MDCT or the like.
  • the input signal 120a corresponds to the signal waveform 110a in FIG. 4
  • the spectrum signal component 120 d and 120 e correspond to the signal frequency component 110 b in FIG.
  • the bandwidth of the signals 120 b and 120 c divided into the above two bands is equal to the input signal 1
  • the conversion circuit 111a may be many other than this specific example.
  • a conversion circuit that directly converts an input signal into a spectrum signal by MDCT may be used. It may be converted by DCT.
  • DCT digital coherence tomography
  • each signal component 130a is normalized by the normalization circuit 113a for each predetermined band, and the quantization accuracy
  • the decision circuit 1 1 3 b calculates the quantization accuracy information 1 3 0 c from the signal component 1 3 0 a and calculates the quantization accuracy information 1
  • the quantizing circuit 113c quantizes the normalized signal 130b from the normalizing circuit 113a.
  • Each signal component 130a corresponds to the signal frequency component 110b in FIG. 4, and the output signal 130d of the quantization circuit 113c corresponds to the encoded signal 111 in FIG. Corresponds to 0c.
  • the output signal 130d includes, in addition to the quantized signal components, normalization coefficient information at the time of the normalization and the quantization accuracy information.
  • a decoding device that reproduces an audio signal from a code sequence generated by the above-described coding device (decoder 7 in the example of FIG. 3).
  • the code sequence decomposition circuit 114a extracts the code 144b of each signal component from the code sequence 140a by the code sequence decomposition circuit 114a.
  • Each signal component 140c is restored from 0b by the signal component decoding circuit 114b, and from the restored signal component 140c, the acoustic waveform signal 114 is restored by the inverse transform circuit 114c. 0 d is reproduced.
  • the inverse conversion circuit 114c of this decoding device is configured as shown in FIG. 8, and corresponds to the conversion circuit shown in FIG.
  • the inverse spectrum conversion circuits 115a and 115b respectively invert the supplied input signals 150a and 150b respectively.
  • the signal of each band is restored by performing spectrum conversion, and the band synthesis filter 115c synthesizes each of these band signals.
  • the output signal 150 e of the band synthesis filter 115 c corresponds to the acoustic waveform signal 140 d of FIG.
  • the signal component decoding circuit 114b of FIG. 7 is configured as shown in FIG. 9, and the code 140b from the code string decomposition circuit 114a of FIG. It performs inverse quantization and inverse normalization on the vector signal.
  • the input code 160a is inversely quantized by the inverse quantization circuit 116a, and the inverse quantization is performed by the inverse normalization circuit 116b.
  • the signal 160b obtained by the conversion is inversely normalized to output a signal component 160c.
  • each spectrum component shown in FIG. 10 is obtained by converting the absolute value of the spectrum component by MDCT into [dB]. That is, in this signal encoding device, the input signal is converted into 64 spectrum signals for each predetermined conversion block, which is represented by eight symbols shown in [1] to [8] in the figure. It is normalized and quantized collectively in a band (hereinafter referred to as an encoding unit). At this time, if the quantization accuracy is changed for each of the coding units according to the manner of distribution of the frequency components, it is possible to perform audio-efficient coding with minimum deterioration of sound quality.
  • FIG. 11 shows a configuration example of a code string in the case of encoding by the above-described method.
  • the data for restoring the spectrum signal of each conversion block contains information encoded corresponding to a frame composed of a predetermined number of bits. Have been. At the beginning of each frame (header part), first, information obtained by coding control data such as the number of coded units being coded with a fixed number of bits is used. The information obtained by coding the quantization accuracy data and the normalization coefficient data of the unit from the low-frequency side coding unit is finally obtained for each coding unit. Information obtained by encoding the spectral coefficient data normalized and quantized based on the quantization accuracy data from the low-frequency side is arranged.
  • the number of bits actually required to restore the spectrum signal of this conversion block is determined by the number of encoded units described above and each It is determined by the number of quantization bits indicated by the quantization accuracy information of the coding unit, and the amount may be different for each frame. Only the required number of bits from the beginning of each frame has meaning during playback, and the remaining area of each frame becomes an empty area and does not affect the playback signal. Normally, more bits are used effectively to improve the sound quality so that the free space in each frame is as small as possible.
  • each conversion block in correspondence with a frame of a fixed number of bits, for example, when this code string is recorded on a recording medium such as an optical disc, an arbitrary conversion Since the recording position of the block can be easily calculated, it is possible to easily realize so-called random access in which reproduction is performed from an arbitrary position.
  • FIGS. 12 and 13 show an example of a recording format when the data of the frame shown in FIG. 11 is arranged in a recording medium or the like in a time-series manner, for example.
  • FIG. 12 shows an example in which, for example, two channels of L (left) and R (right) signals are alternately arranged for each frame.
  • FIG. 13 shows that two-channel signals of L and L are (L + In this example, a single-channel signal (monaural signal generated from two channels, L and R) generated by R) / 2 is arranged for each frame.
  • the recording format as shown in Fig. 12 is called, for example, the standard time mode, as shown in Fig. 13, the recording format that enables long-time recording and reproduction of signals with a small number of channels is as described above. It can be called a long time mode that can record and play twice as long as the standard time mode. Also, in the example of FIG. 12 as well, if only one monaural channel is recorded for each frame instead of two channels of L and R, it is better than when two channels of L and R are recorded. This means that a signal with twice the time can be recorded, and this case can also be called a long-time mode.
  • FIG. 11 only the method described in FIG. 11 has been described as an encoding method. However, the encoding method described in FIG. 11 can further improve the encoding efficiency. .
  • those with a high appearance frequency are assigned a relatively short code length, and those with a low appearance frequency are assigned a relatively long code length.
  • encoding efficiency can be improved.
  • the predetermined conversion block at the time of encoding the input signal that is, the time block length for spectrum conversion
  • sub-information such as quantization accuracy information and normalization coefficient information can be obtained. Since the amount can be reduced relatively per block and the frequency resolution also increases, the quantization accuracy on the frequency axis can be more finely controlled and the coding efficiency can be increased .
  • FIG. 14 shows a state in which three tone components, which are grouped as tone signal components, are separated from the spectrum signal components, and the signal components constituting each of these tone components are: It is encoded together with the position data on the frequency axis of each tone component.
  • the spectral coefficient (a non-tone spectral signal component) in the encoding unit can be quantized with a relatively small number of steps without deteriorating the perceived sound quality.
  • FIG. 14 shows only a relatively small number of spectral signal components for simplicity, the actual tone component is composed of several tens of spectral signal components. Since the energy is concentrated on several signal components in the unit, the increase in the amount of data due to the separation of such tone components is relatively small, and by separating these tone components, the overall Efficiency can be improved.
  • FIG. 15 shows an example of the configuration of a code string when the encoding is performed by the method described with reference to FIG.
  • a synchronization signal and a coded unit Information obtained by encoding control data such as numbers with a predetermined number of bits is arranged, and then information obtained by encoding tone component data, which is data on tone components, is arranged.
  • the tone component data first, information obtained by encoding the number of each signal component in the tone component, secondly, positional information on the frequency axis of each tone component, and then quantization accuracy data in the tone component.
  • the normalized coefficient data Information in which the normalized, quantized and toned signal components (spectrum coefficient data) are encoded, respectively.
  • the data of the remaining signal obtained by subtracting the above-mentioned tonic signal component from the original spectral signal component (also referred to as a noisy signal component) is shown.
  • the encoded information is arranged. This includes a quantization precision data and a normalization coefficient data of each encoding unit and a scan normalized and quantized based on the above-described normalization coefficient data and the quantization precision data for each encoding unit.
  • Information obtained by encoding the vector coefficient data (signal components other than tone components) from the encoding unit on the lower frequency side is arranged.
  • the spectrum signal components (coefficient data) of tone characteristics and other signal components have been subjected to variable-length coding.
  • FIG. 16 shows a specific example of the signal component encoding circuit 11 lb of FIG. 4 in the case of separating a tone signal component from each of the above signal components.
  • the signal component 170a (110b) supplied from the conversion circuit 111a in FIG. Sent to 7a.
  • the signal component 170a is divided into tone signal components and other signal components (non-tone signal components), and the tone signal component 170b is a tone component encoding circuit.
  • the signal component 170c of the non-tone component is sent to the non-tone component encoding circuit 117c.
  • the tone component encoding circuit 117b and the non-tone component encoding circuit 117c encode the supplied signal components and output the obtained output signals 170d and 170e, respectively. I do.
  • the tone component encoding circuit 11 ⁇ b also generates each piece of information constituting the tone component data of FIG. 15 at the same time as encoding the above-described tone component signal component.
  • the configurations for signal encoding in the tone component encoding circuit 117b and the non-tone component encoding circuit 117c are the same as those in FIG.
  • FIG. 17 shows a specific example of the signal component decoding circuit 114 b of FIG. 7 in the case where the tonal signal component is separated from each of the above signal components.
  • the code 140 b supplied from the code string decomposing circuit 114 a of FIG. It consists of a non-tone signal component 180b, and these data and signal component are sent to the corresponding tone component decoding circuit 1 18a and non-tone component decoding circuit 1 18b, respectively.
  • the tone component decoding circuit 118a decodes the tonal signal component from the tone component data as shown in FIG. 15 and obtains the obtained tonal signal component 180c Is output. Further, the non-tone component decoding circuit 118b decodes the non-tone signal component and outputs the obtained non-tone signal component 180d.
  • Both the tonal signal component 180c and the non-tonal signal component 180d are sent to the spectrum signal synthesizing circuit 118c.
  • the spectrum signal synthesizing circuit 118c synthesizes the tone-based signal component and the non-tonic signal component based on the position data, and obtains the obtained signal component 180e. Is output. Note that the configurations for signal decoding in the tone component decoding circuit 118a and the non-tone component decoding circuit 118b are the same as those in FIG.
  • FIG. 18 shows an example of a format when the signal encoded as described above is recorded on a magneto-optical disk, for example.
  • a total of, for example, four (four songs) audio signal data are recorded.
  • management data used when recording and reproducing the audio signal data are recorded together with the audio signal data for all four.
  • the first data number and the last data number are recorded at addresses 0 and 1 of the management data area, respectively.
  • 1 is recorded as the value of the first data number
  • 4 is recorded as the value of the last data number. From this, it can be seen that four audio signal data from the first to the fourth are recorded on this disc.
  • the old standard or A-code a certain coding method
  • the recording format on the disc has been standardized using this method.
  • a more efficient coding method hereinafter, referred to as a new standard or a B-codec
  • the signal encoded by the B codec can be recorded on the same type of disc as the signal recorded by the A codec. If the signal from the B-codec can be recorded in the same way as in the case of the A-codec, it is possible to record a signal for a longer time on the disc or to record a signal with higher sound quality. Therefore, the use of the disc is widened and convenient.
  • A-codec When the encoding method described with reference to FIG. 11 described above is considered as an A-codec, for example, as described above, a relatively short time is applied to a quantized spectrum signal having a high frequency of appearance.
  • a coding method using so-called variable length coding technology which allocates a code length and allocates a relatively long code length to those with a low frequency of occurrence, can be considered as a B-codec.
  • the amount of sub-information such as quantization accuracy information and normalization coefficient information is relatively reduced per block by increasing the transform block length when encoding the input signal.
  • Such an encoding method can be considered as a B codec.
  • a coding method that separates and encodes a spectrum signal component into a tone component and a non-tone component can be considered as a B codec.
  • a combination of these highly efficient coding methods can be considered a B codec.
  • the area for recording the address information (start address and end address) of each audio signal data as shown in FIG. 18 is used.
  • One of the spare areas provided next to the area is used as an area for codec specification information.
  • the codec specification information indicates that the audio signal data specified by the address information consisting of the start address and the end address is encoded based on the old standard (A codec).
  • a codec old standard
  • B codec new standard
  • audio signal data encoded by the A codec and audio signal data encoded by the B codec can be mixed and recorded on the same disc, and the disc conforms to the new standard (B codec). It can be played back by a compatible playback device (hereinafter referred to as a new standard compatible playback device).
  • a disc on which a mixture of A-codec and B-codec data was recorded was recorded on the A-codec, that is, whether the disc was recorded using the old standard or the B-codec, that is, the new standard. It is not possible to visually determine whether the record was made at. Therefore, there is a possibility that the user will play this disc on an old standard compatible playback device.
  • the playback device conforming to the old standard does not check the content of address 2, which is always set to the value 0 as shown in FIG. 18 in the old standard, and the signal recorded on the disc is Since reproduction is attempted by interpreting all as being caused by the A-codec, there is a high risk of being unable to reproduce or generating cluttered and distracting noises and causing confusion to the user.
  • a message signal according to the old standard (A-code) is recorded in advance on the recording medium, and when recording according to the new standard, the contents of the reproduction management information are manipulated.
  • the above-mentioned message signal is played back when played back by a playback device compatible with the old standard, so that it can be easily recorded by an inexpensive recording device compatible with the new standard.
  • the message signal is played back in accordance with the part recorded in the new standard, so that which songs are actually recorded in the old standard is compliant with the old standard
  • FIG. 20 shows an example in which recording is performed on a disc by the method described in the specification and drawings of Japanese Patent Application Publication No. 10-22935.
  • the management data related to the new standard (codec B) is recorded separately from the management data related to the old standard (codec A).
  • the old standard-compatible playback device firstly starts with the old standard start data number at address 0 and the old standard end data number at address 1 (these are the start data number and last data number in FIG. 18). (Corresponding to).
  • the data recorded on this disc is determined from the old standard head data number and the old standard final data number. It can be interpreted that there is only one number from day 1 to day 1.
  • the playback device conforming to the old standard uses address 5 (ie, address storage location information) in accordance with the old standard. ) To find the location in the management area where the address' data is stored.
  • the playback device conforming to the old standard checks the contents from the address (address 116) indicated by the address storage position information of the address 5, thereby recording the audio signal of data number 0. Know the location (address 200,000).
  • the old standard-compliant playback device ignores the codec designation information recorded at address 118, but is described in the specification and drawings of Japanese Patent Application Laid-Open Publication No. H10-22953.
  • the audio signal of data number 0 is actually encoded by the A codec.
  • the content of the audio signal with data number 0 is "Please use a B codec compatible player to reproduce the signal on this disc.” The confusion of the user of the compatible playback device can be avoided.
  • a playback device that supports both the old standard and the new standard ie, a playback device that supports the new standard
  • the playback device conforming to the new standard knows that this disc may be recorded based on the new standard (B codec) whose mode designation information value is 1. Therefore, based on the specification when the mode specification information is 1, the new standard-compatible playback device ignores the old standard head data number at address 0 and the old standard last data number at address 1, and replaces the new standard head address at address 3.
  • the data to be played back on this disc is interpreted as four data numbers 2 to 5 for playback. That is, in this case, the message (the signal of the data number 0) for the playback device conforming to the old standard is not played back. However, this message can be played back by the new standard compatible playback device in order to pay attention to the user of this disc. In this case, the value of the new standard head data number at address 3 is set to 1 It is good.
  • the data is recorded on the disc by the playback device conforming to the new standard. In addition to being able to reproduce a desired audio signal, the old-standard-compliant playback device plays back only a message of caution regarding disc playback, thereby avoiding unnecessary confusion to the user.
  • the message signal that can be reproduced by the old-standard-compliant reproducing device is not the signal itself that one really wants to reproduce.
  • Japanese Patent Application No. 9-42515 uses, for example, a recording format shown in FIG.
  • the total number of bits that can be assigned to each frame is larger than Allocate a small number of bits to the minority channel.
  • encoding is performed with a smaller number of bits than the total number of bits that can be allocated to each frame so that an empty recording area is formed in the frame.
  • the number of bits used for the coding method of the B codec is relatively small, and the coding method of the A codec is used. Since a relatively large number of bits can be used, it is possible to minimize the degree of the sound quality deterioration.
  • a signal of a channel that is not reproduced by the old standard-compatible reproducing apparatus that is, a signal of the B codec
  • the signal reproduced by the old standard-compatible reproduction device can be converted to a multi-channel as described above. It is possible to minimize the decrease in sound quality due to the reduced number of bits allocated.
  • various methods for actually increasing the coding efficiency such as increasing the length of the transform block, adopting a variable length code, and separating the signal component of the tone characteristic.
  • FIG. 21 shows a specific example of a code string obtained by applying the technology described in the specification and the drawings of Japanese Patent Application No. 9-42515 described above.
  • each frame composed of a fixed number of bits is divided into two regions, and the region 1 in Fig. 21 is divided into two regions.
  • the signal of the (L + R) / 2 channel is encoded and recorded by the above-mentioned A codec encoding method, and the area 2 and the area shaded in the figure are recorded.
  • the signal of the (L ⁇ R) / 2 channel is encoded and recorded by the encoding method of the B codec.
  • the area 2 and the area 4 correspond to the empty recording area.
  • the encoding method of the A codec is, for example, the encoding method described with reference to FIG. 11 described above.
  • the encoding method of the B codec is, for example, a signal converted to a spectrum signal component with a conversion block length twice as long as that of the A codec, using the encoding method shown in Fig. 15 as an example. Can be listed.
  • the conversion block length of the B codec at this time is twice as long as the conversion block length of the A codec, so that the code corresponding to the conversion block is recorded over two frames.
  • the coding method of the A codec employs a fixed-length coding method. Therefore, a code sequence (hereinafter, A codec) obtained by the coding method of the A codec is used.
  • a codec a code sequence obtained by the coding method of the A codec.
  • the number of bits used by a codec sequence can be easily calculated. If the number of bits used by the A codec code string can be calculated in this way, the head position of the code string by the B codec coding method (hereinafter referred to as the B codec code string) can be easily determined. You can know.
  • the B codec code string may be started from the end of the frame.
  • the head position of the B codec code string can be easily known.
  • the start position of the B codec code string can be easily calculated.
  • a playback device that supports both the A codec and the B codec (a playback device that supports the new standard) can process both code strings quickly and in parallel. It becomes possible.
  • the coding method of the A codec includes information on the number of coding units as shown in FIG. 11, as described above, an area for recording signals of other channels (an empty recording area) is provided. If the band of the channel to be coded by the coding method of the A codec is narrowed in order to secure, for example, the quantization accuracy data and the normalization coefficient data on the high frequency side can be omitted. It is convenient. Even in this case, the number of bits used for encoding by the encoding method of the A codec can be easily calculated.
  • the signal of the (L + R) / 2 channel is recorded as an A codec code sequence, and the signal of the (L ⁇ R) / 2 channel is recorded as B Since it is recorded as a codec code string, for example, if only the area where the signal of the A codec is recorded is reproduced and decoded, it is possible to reproduce (L + R) / 2 monaural signals. Then, both the area where the signal of the A codec is recorded and the area where the signal of the B codec are recorded are reproduced and decoded, and the sum of them is calculated.
  • a (right) channel signal can be generated, and if the difference is calculated, an L (left) channel signal can be generated, enabling stereo playback.
  • the old-standard-compliant playback apparatus ignores the area coded by the coding method of the B codec.
  • the monaural signal can be reproduced from the recording medium on which the code string is recorded.
  • the recording medium on which the code string shown in FIG. A playback device equipped with a decoding circuit for decoding a deck code and a decoding circuit for decoding a B codec (a playback device conforming to the new standard) can reproduce stereo signals. In this way, after the old standard-compatible playback device has already spread, even if the encoding method shown in Fig.
  • FIG. 21 shows a specific configuration of an encoding device that generates the above-described code sequence of FIG. 21.
  • the input signal 190 a of the L channel and the input signal 190 b of the R channel are converted into a signal 19 9 corresponding to (L + R) / 2 by the channel conversion circuit 119 a. It is converted to a signal 190d corresponding to 0c and (L-R) / 2.
  • the (L + R) / 2 signal 190c is sent to the first encoder circuit 119b, and the (L-R) / 2 signal 190d is sent to the second encoder circuit 119c.
  • the first encoding circuit 119b corresponds to the signal component encoding circuit 111b of FIG. 4 having the configuration of FIG. 6, and the encoding method of the A codec is applied.
  • the second encoding circuit 119c has a conversion block length twice as long as that of the first encoding circuit 119b, and the signal component encoding circuit shown in FIG. This is equivalent to 1 1 1 b, and the coding method of the above-mentioned B codec is applied.
  • Both the A codec code string 190 e of the first coding circuit 119 b and the B codec code string 190 f of the second coding circuit 119 c generate code strings. It is supplied to the circuit 1 19 d.
  • This code string generation circuit 119d generates the code string shown in FIG. 21 from the code strings 190e and 190f, and outputs it as an output code string signal 190g.
  • FIG. 23 shows a flow of processing when the code sequence generation circuit 1 19 d of FIG. 22 generates the code sequence of FIG. 21.
  • step S101 the frame number F is initialized to 1, and in step S102, the A codec code sequence 190 from the first coding circuit 119b is initialized. Receive e.
  • step S103 it is determined whether or not the frame number F is even. If it is not even, the process proceeds to step S106, and if it is even, the process proceeds to step S104.
  • step S104 the B codec code string 190f from the second encoding circuit 119c is received.
  • step S105 the code sequence of FIG. 21 is synthesized from the code sequences 190e and 190f.
  • step S106 it is determined whether or not the processing for all frames has been completed.
  • the processing in FIG. 23 ends, and when not, in step S107, the processing in FIG.
  • the frame number F is incremented by one, the process returns to step S102, and the above process is repeated.
  • the frame number F starts from 1, but the processing unit of the encoding method of the B codec is two frames, which is twice the encoding method of the A codec. Column generation is also performed every two frames.
  • FIG. 24 shows an image generated using the encoding method of the present invention described above.
  • the specific configuration of the decoding device of the new standard-compatible playback device that decodes the encoded code string of FIG. 21 is shown.
  • the input code sequence 200a which is the code sequence in FIG. 21, is separated into an A codec code sequence 200b and a B codec code sequence 200c by a code sequence separation circuit 120a.
  • the A codec code string 200b is sent to the first decoding circuit 120b, and the B codec code string 200c is sent to the second decoding circuit 120c.
  • the first decoding circuit 120b corresponds to the signal component decoding circuit 114b of FIG. 7 having the configuration of FIG. 9, and decodes an A-codec code.
  • the second decoding circuit 120c has a conversion block length twice that of the second decoding circuit 120b, and corresponds to the signal component decoding circuit 114b of FIG. 7 having the configuration of FIG. It decodes the code of the B codec.
  • the signal 200d decoded by the first decoding circuit 120b is equivalent to the (L + R) / 2 signal 190c
  • the signal 200e decoded by the second decoding circuit 120c is (L — R) / 2 signal is equivalent to 1 90 d.
  • the processing delay time differs between the (L + R) / 2 signal 200 d and the (L ⁇ R) / 2 signal 200 e because the conversion block lengths are different. Therefore, the (L + R) / 2 signal 200 d from the first decoding circuit 120 is sent to the memory circuit 120 d, and the (L—R) / 2 signal 200 e from the second decoding circuit 120 c is sent to the memory circuit 120 d. The difference is supplied to the memory circuit 120 e, and the memory circuit 120 d and 120 e absorb the processing delay time difference.
  • the (L + R) / 2 signal 200f and the (L—) Z2 signal 200g passed through the memory circuits 120d and 120e, respectively, are sent to the channel conversion circuit 120f.
  • This channel conversion circuit 120 f generates an L-channel signal 200 h by adding the (L + R) / 2 signal 200 f and the (L—R) / 2 signal 200 g, and generates (L + By subtracting (L-R) / 2 signal 200 g from R) / 2 signal 200 f, R channel signal 200 i is generated and these L channel and R channel signals are output.
  • FIG. 25 shows the flow of processing when the code string separation circuit 120a in FIG. 24 separates the code string in FIG.
  • step S201 the frame number F is initialized to 1, and in step S202, the A codec code sequence to be sent to the first decoding circuit 120b is separated and transmitted. .
  • step S203 it is determined whether or not the frame number F is an odd number. If the frame number F is not an odd number, the process proceeds to step S205, and if it is an odd number, the process proceeds to step S204.
  • step S204 the B codec code string to be sent to the second decoding circuit 120c is separated and transmitted.
  • step S205 it is determined whether or not the processing for all the frames has been completed.
  • the processing in FIG. 25 has been completed. Is incremented by 1 and the process returns to step S202, and the above-described process is repeated.
  • the frame number F starts from 1, but the processing unit of the encoding method of the B codec is two frames, which is twice the encoding method of the A codec. This is done every two frames.
  • B-codec signal an additional channel signal
  • a stereo signal is recorded.
  • quantization noise generated by encoding may cause a problem.
  • a method according to an embodiment of the present invention for solving this problem will be described.
  • FIG. 26 shows a specific example of a code string according to an embodiment obtained by applying the method of the present invention.
  • the old standard only allowed recording of one channel signal (audio signal) of (L + R) / 2, whereas the channel configuration data and the additional channel
  • the new standard shows an example of a format that enables recording of two-channel signals by combining signals with (L + R) / 2 and additional channels by recording signals.
  • a channel corresponding to (L + R) / 2 is referred to as an A channel
  • a channel corresponding to an additional channel is referred to as a B channel.
  • the two channels are actually recorded because the space for recording the channel configuration data is secured after the A channel signal, and the channel configuration data has a value other than 0. Is the case.
  • the signal of the B channel is one of (L ⁇ R) / 2, L, and R, and the value of the channel configuration data indicates which of these is recorded.
  • the signal of (L + R) / 2 when the value of the channel configuration data is 2, the signal of L, and when the value of the channel configuration data is 3, the signal of R is Each is recorded.
  • the user can receive only the desired audio signal of either the A channel or the B channel. It will be possible to hear.
  • the channel configuration data is set to a value of 0, it is also possible to record only the A channel or the B channel without using all the bits allocated to the frame.
  • FIG. 27 shows a configuration example of an encoding device according to an embodiment of the present invention that generates the code sequence shown in FIG.
  • an input signal 210a is an L-channel and an R-channel signal, and the input signal 210a is converted to an A-channel, that is, (L + R) by a channel conversion circuit 121a.
  • the signal is converted into a signal 210b corresponding to / 2 and a signal 210c corresponding to the B channel.
  • the A channel signal 210b is sent to the first encoding circuit 121b, and the B channel signal 210c is sent to the second encoding circuit 121c.
  • the first encoding circuit 121b encodes the A channel signal 210b
  • the second encoding circuit 121c encodes the B channel signal 210c.
  • the A-channel code sequence 210 d from the first coding circuit 121b and the B-channel code sequence 210e from the second coding circuit 121c are both code sequence generation circuits. Supplied to 1 2 1 d.
  • the code sequence generation circuit 121 d generates the code sequence shown in FIG. 26 from the code sequences 210 d and 210 e and outputs it as an output code sequence signal 210 h.
  • a control circuit 121 e is provided.
  • This control circuit 1 2 1 e converts the channel conversion circuit 1 2 1 a to the code string generation circuit 1 2 1 d according to the input signal 2 10 f specifying the encoding mode and the input signal 2 10 a.
  • the code string of FIG. 26 is generated as shown in the flowcharts of FIGS. 28 and 29 described later.
  • Control signal 210g which is controlled in such a manner as to send the signal to each component.
  • the control signal 210g contains information indicating whether to encode in stereo mode or monaural mode, and information indicating in what mode to encode the B channel, that is, (L-R) / 2, R , L, which indicates which signal to encode.
  • FIG. 28 shows a processing flow of the control circuit 122 e in the configuration of FIG.
  • step S301 (L + R) / 2 is set for the A channel.
  • step S302 it is determined whether or not the stereo mode is set based on the input signal 21Of of FIG. 27. Ends the processing. In the case of the stereo mode, go to step S303.
  • step S303 the signal energy of each frame of the input signal 210a in FIG. 27 is obtained for each channel ⁇ , the energy of the L channel is set to E1, and the energy of the R channel is set to Er.
  • step S304 the energies E1 and Er are compared, and the ratio of E1 to Er (E1 / Er) is smaller than, for example, 30 dB, that is, the energy of the R channel is reduced to the energy of the L channel.
  • the process proceeds to step S305, and if it is 30 dB or more, the R channel is set to the B channel in step S308.
  • step S305 similarly, the energies E1 and Er are compared, and the ratio of Er to E1 (Er / El) is smaller than 30 dB, that is, the energy of the L channel is smaller than the energy of the R channel.
  • (L-R) / 2 is set for the B channel in step S306, and if it is large, the L channel is set for the B channel in step S307.
  • the channel information set here is output as the control signal 210g in FIG.
  • the channel ratio of the B channel is selected by comparing the energy ratio of the L and R channels with the value of 30 dB. It is good, and the value of 30 dB may be changed according to the level of quantization noise and the like, and may be a value of 10 dB, for example.
  • FIG. 29 shows a flow of processing when generating a code string as shown in FIG. 26 based on the control signal 210g in the configuration of FIG. In the example of FIG. 29, it is assumed that, for example, 200 bytes are assigned to each frame.
  • step S401 it is determined whether or not recording and reproduction are to be performed in stereo as described above.
  • the mode designation signal 210 of FIG. 27 indicates the stereo mode
  • the processing after step S402 is performed. The process proceeds to S405.
  • step S402 when encoding in the stereo mode is instructed in step S401, the above A channel, that is, (L + R) is used using 150 bytes. ) / 2 signal is encoded.
  • the channel configuration data is generated and encoded using one byte.
  • step S404 the B-channel signal is encoded using 49 bytes.
  • the channel configuration data is 1 when the B channel is set to (L-R) / 2, 2 when the L channel is set, and 2 when the R channel is set. Are coded as 3 respectively.
  • step S405 the signal of the A channel, that is, (L + R) / 2, is encoded using 200 bytes.
  • FIG. 30 shows a specific example of a decoding device according to the present embodiment that decodes a code string as shown in FIG.
  • the input code string 220a which is the code string in FIG. 26, is converted into an A channel code string 220b and a B channel code string 220c by a code string separation circuit 122a. Separated.
  • the A channel code sequence 220b corresponds to the A channel code sequence 210d
  • the B channel code sequence 220c corresponds to the B channel code sequence 210e.
  • the A channel code sequence 222b is sent to the first decoding circuit 122b
  • the B channel code sequence 220c is sent to the second decoding circuit 122c.
  • the first decoding circuit 122b decodes the code string 220b of the A channel
  • the second decoding circuit 122c decodes the code string 220c of the B channel.
  • the A channel signal 220 d decoded by the first decoding circuit 122 b and the B channel signal 220 e decoded by the second decoding circuit 122 c respectively Since the byte length is different, there is a difference in the processing delay time. Therefore, the A channel signal 220 d from the first decoding circuit 122 is stored in the memory circuit 122 d, and the B channel signal 220 e from the second decoding circuit 122 c is stored in the memory circuit 122 d. The data is supplied to a circuit 122e, and the memory circuit 122d and 122e absorb the processing delay time difference. The A channel signal 220 f and the B channel signal 220 g that have passed through the memory circuits 122 d and 122 e are sent to the channel conversion circuit 122 f.
  • the channel conversion circuit 1 2 2 f is connected to the A channel, that is, (L + R) / 2 Generates an audio signal from the signal 220 f and the B-channel signal 220 g and outputs them.
  • the channel configuration data is also separated from the input code string 220a by the code string decomposition circuit 122a.
  • the above-described channel separation data is separated and the above-described configuration is performed from the code string separation circuit 122a to the channel conversion circuit 122f.
  • a control signal 22 0 h for performing such a decoding processing operation is generated and sent to each component.
  • the monaural mode only the A-channel code 222b is output from the code string separation 122a, and the monaural signal is formed in the configuration after the first decoding circuit 122b. Is played.
  • FIG. 31 shows a processing flow of the configuration of FIG. 30 for decoding the code string shown in FIG. 26.
  • step S501 the first code string of the input code string 220a, that is, the number of bytes L1 of the A-channel code string 220b is obtained by calculation.
  • step S502 it is determined whether or not the number of bytes L1 is smaller than 200.
  • Step S502 determines whether the mode is the monaural mode or the stereo mode. That is, in step S502, determination is made based on the number of bytes in the code string to determine whether the data is recorded in the old standard or in the new standard. By judging from the number of bytes of the code string in this way, it becomes possible to change the mode for each frame or every several frames.
  • the discrimination between the monaural mode and the stereo mode can be embedded as mode designation information in the management data as shown in FIG.
  • step S503 it is determined whether or not the value of the channel configuration data is 0. If it is 0, the process proceeds to step S504, and if it is not 0, the process proceeds to step S505.
  • step S504 a control signal 220h for decoding the signals of the A channel and the B channel is generated and sent to each component, whereby, as described above, the A channel code sequence 220 b is decoded by the first decoding circuit 122b, and the B-channel code sequence 220c is decoded by the second decoding circuit 122c.
  • step S505 since the mode is the monaural mode, a control signal 220h for decoding the A channel signal is generated and sent to each component, and as described above, the A channel code sequence 220 Only b is decoded by the first decoding circuit 122 b.
  • FIG. 32 shows a processing example of a method of determining the channel setting when the code string separation circuit 122 a in FIG. 30 is in the stereo mode of decoding.
  • step S601 it is determined whether or not the channel configuration data is zero. If the channel configuration data is 0, the process proceeds to step S602, in which the A channel is output together with the L channel and the R channel in step S602, and the control signal 220h in FIG. 30 is output. Generate
  • step S601 determines whether the channel configuration data is 1 or not. If it is determined that the channel configuration data is 1, the process proceeds to step S604.
  • step S604 the control signal 222h of FIG. 30 is generated assuming that (A + B) is output as the L channel and (A—B) is output as the R channel.
  • step S605 it is determined whether or not the channel configuration data is 2. If it is determined in step S 605 that the channel configuration data is 2, the process proceeds to step S 606, and in step S 606, the B channel is set as the L channel and the (2 A) is set as the R channel. — Generate the control signal 220h of Fig. 30 assuming that the channels of B) are output respectively. If it is determined in step S605 that the channel configuration data is not 2, the process proceeds to step S607. In this step S607, it is determined whether or not the channel configuration data is three.
  • step S607 If it is determined in step S607 that the channel configuration data is 3, the flow advances to step S608, and in this step S608, the L channel is set as (2A-B): R
  • the control signal 220h of FIG. 30 is generated assuming that the B channel is output as a channel. If it is determined in step S607 that the channel configuration data is not 3, the process ends.
  • the signals of the L and R channels are output from the channel conversion circuit 122 in the stereo mode.
  • monaural mode a monaural signal is output.
  • the monaural signal is output by outputting the A channel signal together with the L channel and the R channel as described above. can get.
  • the channel configuration data is 1, as described above, an L-channel signal is obtained at (A + B) and an R-channel signal is obtained at (A-B). If the channel configuration data is 2, the L channel signal is obtained from the B channel, and the R channel signal is obtained at (2 AB). Further, when the channel configuration data is 3, an L-channel signal is obtained at (2A-B), and an R-channel signal is obtained from the B channel.
  • FIGS. 33A and 33B shown in FIGS. 1 and 2 An example of processing a stereo signal as shown in FIGS. 33A and 33B shown in FIGS. 1 and 2 using the method of the embodiment of the present invention will be described.
  • Figures 33A and 33B show the time axis waveforms of the left channel component (L) of the stereo signal and the right channel component (R) of the stereo signal, respectively.
  • Figures 33C and 33D show the L and R components, respectively.
  • FIGS. 33E and 33F show that the above (L + R) / 2 A channel and R 2 B channel signals are respectively coded and decoded by the above-described high efficiency coding method according to the embodiment of the present invention.
  • Each axis waveform is shown.
  • Each can be represented.
  • Fig. 33 G and 33H are obtained from the signal waveforms of (A + N1) and (B + N2). This figure shows how the left and right channels of a stereo signal are separated.
  • the L channel is generated by (2A-B), and the R channel is the B channel itself.
  • the playback device conforming to the old standard can reproduce a small number of channels
  • the playback device conforming to the new standard can reproduce a larger number of channels, and optimizes channel conversion to minimize sound quality deterioration.
  • the encoding method, the decoding method, and the encoded recorded medium are all included in the method of the present invention.
  • the whole is divided into two bands, then the spectrum is transformed, and the spectrum coefficients are normalized and quantized and encoded with a fixed length.
  • the second encoding method After dividing the whole into two bands, the spectrum is transformed, the spectrum coefficients are separated into tone components and other components, and each is normalized and quantized and coded with variable length
  • various other encoding methods are conceivable.
  • a first encoding method a time-series signal that is divided into bands and then decimated according to the bandwidth is used.
  • the second encoding method is to perform spectrum conversion on the time-series signal of the entire band, and normalize and quantize the spectrum coefficients.
  • a method of quantizing and coding may be adopted.
  • by adopting a method with the highest possible encoding efficiency as described above the deterioration in sound quality when played back by a playback device conforming to the old standard is minimized. It is desirable.
  • the method of the present invention is also applicable to a case where a signal reproduced by an old-standard-compliant reproducing apparatus is, for example, an image signal. That is, for example, when a luminance signal is encoded as a code string of the old standard, the color difference signal and the hue signal can be added to the code string by using the method of the present invention.
  • the channel in the present invention includes a luminance signal, a color difference signal, and a hue signal in the case of a video.
  • the method of the present invention can be applied to the case where the bit stream is transmitted. Also, as long as the recording medium can be randomly accessed, it is needless to say that not only a recording medium such as an optical disk but also a semiconductor memory or the like can be used.
  • the signal encoding method and apparatus of the present invention the first signal generated from the signals of the plurality of input channels is encoded and some of the channels are encoded. And a second signal composed of only signals of some channels or a second signal generated from signals of a plurality of input channels, based on the signal levels of the other channels.
  • the first and second signals are encoded using different encoding methods, for example, while enabling playback by the old standard-compatible playback device,
  • quantization noise caused by encoding can be minimized and sound quality deterioration can be reduced.
  • the first encoded signal generated and encoded from the signals of the plurality of channels and the second signal or the second signal including only the signals of some of the channels are provided.
  • Decoding a code string including a second coded signal obtained by selecting and coding any one of the second signals generated from the signals of the plurality of channels, and selecting the second signal from the code string The selection information that specifies the situation is extracted to control the decoding, and the first and second encoded signals are decoded by different decoding methods at the time of decoding.
  • the playback by the device is possible, and the signal extended by the new standard can be played back, the quantization noise generated by encoding and decoding is minimized, and the deterioration of sound quality can be reduced.
  • a plurality of input channels A first coded signal obtained by coding the first signal generated from the signal, and a second signal generated from only a part of channel signals or a second signal generated from a plurality of input channel signals.
  • a second coded signal selected and coded, a series of coded parameters thereof, and a code string having selection information of the second signal are recorded, and the first and second coded signals are recorded. Due to the different signal encoding methods, for example, it is possible to reproduce by the old standard compatible playback device and also to reproduce the signal extended by the new standard, and minimize the quantization noise generated by encoding and decoding. To minimize sound quality degradation.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Stereo-Broadcasting Methods (AREA)

Description

明細 : 符号化方法及び装置、 復号化方法及び装置、 並びに記録媒体 技術分野 本発明は符号化された信号のフォーマッ トを拡張する際に好適な. 符号化方法及び装置と、 これに対応する復号化方法及び装置、 符号 化された信号が記録された記録媒体に関するものである。 背景技術 従来より、 符号化された音響情報或いは音声情報の如き信号 (以 下、 オーディオ信号と呼ぶ) を記録することが可能なものと して、 例えば光磁気ディスクのような信号記録媒体が提案されている。 上 記オーディォ信号の高能率符号化の手法には種々あるが、 その高能 率符号化の手法としては、 例えば、 時間軸上のオーディオ信号を所 定時間単位でプロック化し、 このプロック毎の時間軸の信号を周波 数軸上の信号に変換(スぺク トル変換)して複数の周波数帯域に分割 し、 各帯域毎に符号化するプロック化周波数帯域分割方式であるい わゆる変換符号化や、 時間軸上のオーディォ信号をプロック化しな いで、 複数の周波数帯域に分割して符号化する非プロック化周波数 帯域分割方式であるいわゆる帯域分割符号化 (サブ 'バン ド ' コー ディ ング : S B C ) 等を挙げることができる。 また、 上述の帯域分 割符号化と変換符号化とを組み合わせた高能率符号化の手法も考え られている。 この場合には、 例えば、 上記帯域分割符号化で帯域分 割を行った後、 該各帯域毎の信号を周波数軸上の信号にスぺク トル 変換し、 このスぺク トル変換された各帯域毎に符号化が施される。 ここで、 上述した帯域分割符号化において用いられる帯域分割用 フィル夕としては、 例えばいわゆる QMF(Quadrature Mirror fil ter)などのフィル夕があり、 この QMFのフィル夕は、 文献 「ディ ジ夕ル ' コーディ ング ' ォブ ' スピーチ ' イン ' サブバンズ」 ("D igital coding of speech in subbands" R. E. Crochiere, Bell S yst. Tech. J., Vol. 55, No. 8 1976) に述べられている。 この Q MFのフィル夕は、 帯域を等バン ド幅に 2分割するものであり、 当 該フィル夕においては上記分割した帯域を後に合成する際にいわゆ るエリアシングが発生しないことが特徴となっている。 また、 文献
「ポリフェイズ ' クア ドラチユア ' フィル夕一ズ 一新しい帯域分 害 !J符号ィ匕技術」 ("Polyphase Quadrature filters - A new subband coding technique", Joseph H. Rothweiler, ICASSP 83, BOSTON) には、 等帯域幅のフィル夕分割手法が述べられている。 このポリフ エイズ · クア ドラチユア ' フィル夕においては、 信号を等バンド幅 の複数の帯域に分割する際に一度に分割できることが特徴となって いる。
上述したスペク トル変換としては、 例えば、 入力オーディオ信号 を所定単位時間 (フレーム) でブロック化し、 当該ブロック毎に離 散フーリエ変換 (Discrete Fourier Transform: D F T ) 、 離散コサ ィン変換 ( Discrete Cosine Transform: D C T ) 、 モディ フアイ ド離散コサイン変換 (変形離散コサイン変換 : Modified Discrete Cosine Transform: MD C T) 等を行うことで時間軸を周波数軸に 変換するようなスペク トル変換がある。 なお、 上記 MD C Tについ ては、 文献 「時間領域ェリアシング · キャンセルを基礎とするフィ ル夕 ' バンク設計を用いたサブバンド/変換符号化」 ("Subband/Tr ansiorm Coding Using Filter Bank Designs Based on Time Domai n Aliasing Cancellation," J. P. Princen A. B. Bradley, Univ. of Surrey Royal Melbourne Inst, of Tech. ICASSP 1987)に述べ られている。
また、 波形信号をスぺク トル変換する方法として上述の D F Tや D C Tを使用した場合、 例えば M個のサンプルデ一夕からなる時間 ブロックで変換 (以下、 このブロックを変換ブロックと呼ぶ) を行 うと、 M個の独立な実数デ一夕が得られる。 ここで変換ブロック間 の接続歪みを軽減するために、 通常は、 両隣の変換ブロック間でそ れぞれ M 1個のサンプルデータをォ一バーラップさせるので、 これ ら D F Tや D C Tでは、 平均化して (M— M 1 ) 個のサンプルデ一 夕に対して M個の実数データが得られるようになり、 したがって、 これら M個の実数データが、 その後量子化及び符号化されることに なる。
これに対して、 スぺク トル変換の方法として上述の MD C Tを使 用した場合には、 両隣の変換プロック間でそれぞれ M個ずつのサン プルデータをオーバーラップさせた 2 M個のサンプルから、 独立な M個の実数デ一夕が得られる。 すなわち、 MD CTを使用した場合 には、 平均化して M個のサンプルデ一夕に対して M個の実数データ が得られ、 これら M個の実数デ一夕が、 その後量子化及び符号化さ れることになる。 復号化装置においては、 このようにして MD C T を用いて得られた符号から、 各プロックにおいて逆変換を施して得 た波形要素を互いに干渉させながら加え合わせることにより、 波形 信号を再構成することができる。
ところで、 一般に、 上記スペク トル変換のための変換ブロックを 長くすると、 周波数分解能が高まり、 特定のスペク トル信号成分に エネルギが集中することが起きる。 したがって、 両隣の変換ブロッ ク間でそれぞれ半分ずつサンプルデータをオーバーラップさせた長 い変換プロック長でスぺク トル変換を行い、 しかも得られたスぺク トル信号成分の個数が、 元の時間軸のサンプルデータの個数に対し て増加しない上記 M D C Tを使用するようにすれば、 D F Tや D C Tを使用した場合よりも効率の良い符号化を行うことが可能となる c また、 隣接する変換プロック同士で十分長いオーバーラップを持た せるようにすれば、 波形信号の変換プロック間の接続歪みを軽減す ることもできる。 ただし、 変換のための変換ブロックを長くすると いうことは、 変換のための作業領域がより多く必要になるというこ とでもあるため、 再生手段等の小型化を図る上での障害となり、 特 に半導体の集積度を上げることが困難な時点で長い変換プロックを 採用することはコス 卜の増加につながるので注意が必要となる。 上述したように、 フィル夕やスぺク トル変換によって帯域毎に分 割された信号成分を量子化することにより、 量子化雑音が発生する 帯域を制御することができ、 したがって、 いわゆるマスキング効果 などの性質を利用して聴覚的により高能率な符号化を行うことが可 能となる。 また、 ここで量子化を行う前に、 各帯域毎に、 例えばそ の帯域における信号成分の絶対値の最大値で各サンプルデータの正 規化を行うようにすれば、 さらに高能率な符号化を行うことができ る。 ここで、 例えばオーディオ信号を周波数帯域分割して得た各信号 成分を量子化する場合の周波数分割幅としては、 例えば人間の聴覚 特性を考慮した帯域幅を用いることが好ましい。 すなわち、 一般に 高域ほど帯域幅が広くなるような臨界帯域 (クリティカルバン ド) と呼ばれている帯域幅で、 オーディオ信号を複数 (例えば 2 5バン ト) の帯域に分割することが好ましい。 また、 このときの各帯域毎 のデータを符号化する際には、 各帯域毎に所定のビッ ト配分或いは、 各帯域毎に適応的なビッ ト割当 (ビッ トアロケーション) による符 号化が行われる。 例えば、 上記 M D C T処理されて得られた係数デ 一夕を上記ビッ トアロケーションによって符号化する際には、 上記 各変換プロック毎の M D C T処理により得られる各帯域毎の M D C T係数デ一夕に対して、 適応的な割当ビッ ト数で符号化が行われる ことになる。 ビッ ト割当手法としては、 次の 2手法が知られている。 例えば、 文献 「音声信号の適応変換符号化」 ("Adaptive Transf orm Coding of Speech Signals" , R. Zel inski and P . Nol l , IEEE
Transactions of Acoustics , Speech, and Signal Process ing, v ol . ASSP-25 , No . 4, August 1977) では、 各帯域毎の信号の大きさ をもとに、 ビッ ト割当を行っている。 この方式では、 量子化雑音ス ぺク トルが平坦となり、 雑音エネルギが最小となるが、 聴感覚的に はマスキング効果が利用されていないために実際の雑音感は最適で はない。
また、 例えば文献 「臨界帯域符号化器 一聴覚システムの知覚の 要求に関するディジ夕ル符号化」 ("The crit ical band coder — d igital encoding of the perceptual requirements of the audito ry system" , M. A. Kransner MI T, ICASSP 1980) では、 聴覚マスキ ングを利用することで、 各帯域毎に必要な信号対雑音比を得て固定 的なビッ ト割当を行う手法が述べられている。 しかしこの手法では、 サイ ン波入力で特性を測定する場合でも、 ビッ ト割当が固定的であ るために特性値がそれほど良い値とならない。
これらの問題を解決するために、 ビッ ト割当に使用できる全ビッ トを、 各小プロック毎に予め定められた固定ビッ 卜割当パターン分 と、 各プロックの信号の大きさに依存したビッ ト配分を行う分とに 分割使用するようにし、 そのときの分割比を入力信号に関係する信 号に依存させ、 上記信号のスぺク トルのパターンが滑らかなほど上 記固定ビッ ト割当パターン分への分割比率を大きくするような高能 率符号化方法が提案されている。
この方法によれば、 サイン波入力のように、 特定のスペク トル信 号成分にエネルギが集中する場合にはそのスぺク トル信号成分を含 むブロックに多くのビッ トを割り当てることにより、 全体の信号対 雑音特性を著しく改善することができる。 一般に、 急峻なスぺク ト ル信号成分を持つ信号に対して人間の聴覚は極めて敏感であるため、 このような方法を用いることにより、 信号対雑音特性を改善するこ とは、 単に測定上の数値を向上させるばかりでなく、 聴感上、 音質 を改善するのに有効である。
ビッ ト割当の方法にはこの他にも数多くの方法が提案されており、 さらに聴覚に関するモデルが精緻化され、 符号化装置の能力が上が れば聴覚的にみてよ り高能率な符号化が可能になる。
これらの方法においては、 計算によって求められた信号対雑音特 性をなるベく忠実に実現するような実数のビッ ト割当基準値を求め、 それを近似する整数値を割当ビッ ト数とすることが一般的である。 実際の符号列を構成するに当たっては、 先ず、 正規化及び量子化 が行われる帯域毎に、 量子化精度情報と正規化係数情報を所定のビ ッ ト数で符号化し、 次に、 正規化及び量子化されたスペク トル信号 成分を符号化すれば良い。 また、 I S 0標準 ( I S 0 / I E C 1 1 1 7 2 - 3 : 1 9 9 3 ( E ) , 1 9 9 3 ) では、 帯域によって量子 化精度情報を表すビッ ト数が異なるように設定された高能率符号化 方式が記述されており、 ここでは高域になるにしたがって、 量子化 精度情報を表すビッ ト数が小さくなるように規格化されている。 量子化精度情報を直接符号化する代わりに、 復号化装置において 例えば正規化係数情報から量子化精度情報を決定する方法も知られ ているが、 この方法では、 規格を設定した時点で正規化係数情報と 量子化精度情報の関係が決まってしまうので、 将来的にさらに高度 な聴覚モデルに基づいた量子化精度の制御を導入することができな くなる。 また、 実現する圧縮率に幅がある場合には圧縮率毎に正規 化係数情報と量子化精度情報との関係を定める必要が出てく る。
また、 例えば、 文献 「最小冗長コードの構成のための方法」 ("A Method for Construction of Minimum Redundancy Codes' D . A. Huffman : , Proc . I . R. E ., 40, p. 1098 ( 1952 ) ) のように、 可変長 符号を用いて符号化することによって、 量子化されたスぺク トル信 号成分をより効率的に符号化する方法も知られている。
さらに、 本件出願人による PCT出願国際公開 W094/28633の明細書及 び図面には、 スぺク トル信号成分から聴感上特に重要な トーン性の 成分を分離して、 他のスぺク トル信号成分とは別に符号化する方法 が提案されており、 これにより、 オーディオ信号等を聴感上の劣化 を殆ど生じさせずに高い圧縮率で効率的に符号化することが可能に なっている。
なお、 上述した各符号化手法は、 複数のチャネルから構成される 音響信号の各チャネルに対しても適用することが可能である。 例え ば、 左側のスピーカに対応する Lチャネル、 右側のスピーカに対応 する Rチャネルのそれぞれに適用しても良い。 また、 Lチャネル、 Rチヤネルそれぞれの信号を加えることによって得られた ( L + R ) / 2の信号に対して適用することも可能である。 また、 (L + R ) / 2の信号と ( L— R ) / 2の信号に対して上述の各手法を用 いて効率の良い符号化を行うことも可能である。 なお、 1チャネル の信号を符号化する場合のデ一夕量は、 2チャネルの信号をそれぞ れ独立に符号化する場合の半分ですむので、 記録媒体に信号を記録 する場合、 1チャネルのモノラル信号で記録するモードと 2チヤネ ルのステレオ信号で記録するモードの両者を設け、 長時間の記録が 必要な場合にはモノラル信号として記録できるように規格を設定す るという方法がよく採られている。
上述したように、 符号化効率を高める手法は次々と開発されてお り、 したがって、 新たに開発された符号化手法を組み込んだ規格を 採用すれば、 より長時間の記録が可能になったり、 同じ記録時間で あればより音質の高い音響 (オーディオ) 信号を記録することが可 能になる。
ここで、 上述したような規格を決定する際には、 将来的に規格が 変更又は拡張される場合のことを考慮して、 予め信号記録媒体に対 して上記規格に関するフラグ情報等を記録できる余地を残しておく 方法がよく採られる。 すなわち例えば、 最初に規格化を行う場合に は 1 ビッ トのフラグ情報として 「 0」 を記録しておく ようにし、 規 格変更を行う場合にはそのフラグ情報に 「 1」 を記録する。 変更後 の規格に対応した再生装置は、 このフラグ情報が 「0」 であるか 「 1」 であるかをチェックし、 もし 「 1」 ならば、 変更後の規格に 基づいて信号記録媒体から信号を読み出し再生する。 上記フラグ情 報が 「0」 の場合には、 もし、 その再生装置が最初に定められた規 格にも対応しているのであれば、 その規格に基づいて信号記録媒体 から信号を読み出して再生し、 対応していないのであれば信号再生 を行わない。
しかしながら、 一旦定められた規格 (以下、 これを 「旧規格」 、 又は 「第 1の符号化方法」 と称する) で記録された信号のみを再生 できる再生装置 (以下、 これを 「旧規格対応再生装置」 と称する) が普及すると、 この旧規格対応再生装置では、 より高能率の符号化 方式を使用した上位の規格 (以下、 これを 「新規格」 、 又は 「第 2 の符号化方法」 と称する) を使って記録された記録媒体を再生でき ないため、 装置の使用者に混乱を与える。
特に、 旧規格が決定された時点における再生装置 (旧規格対応再 生装置) には、 記録媒体に記録されたフラグ情報を無視して、 当該 記録媒体に記録されている信号は全て旧規格で符号化されているも のとして再生してしまうものも存在する。 すなわち、 記録媒体が新 規格に基づいて記録されているものであつたとしても、 全ての旧規 格対応再生装置がそのことを識別できるわけではない。 このため、 当該旧規格対応再生装置において、 例えば新規格に基づいた信号が 記録された記録媒体を、 旧規格に基づいた信号が記録された記録媒 体であると解釈して再生したような場合には、 正常に動作しなかつ たり、 ひどい雑音を発生したりする虞がある。 この問題を解決するために、 本件出願人は、 日本特許出願公開平
1 0 - 2 2 9 3 5の明細書及び図面において、 追加された規格すな わち新規格で記録を行う場合には、 「記録されている信号の一部は、 この規格のみに対応した再生手段では再生できない。 」 との事実を 知らせる信号を、 旧規格に基づいて記録するとともに、 旧規格対応 再生装置で再生した場合には、 旧規格に基づいて記録された信号以 外には再生させないようにして装置の使用者に混乱を招いたり、 雑 音を発生させたりすることを防止する方法を提案している。 また、 この日本特許出願公開平 1 0— 2 2 9 3 5の明細書及び図面におい ては、 予め記録媒体に旧規格によるメッセージ信号を記録しておき、 新規格で記録を行う場合には再生管理情報の内容を操作することで、 旧規格対応再生装置で再生した場合にはメ ッセージ信号が再生され るようにすることによって、 安価な新規格対応の記録装置で容易に 記録ができるようにする方法、 及び、 旧規格対応再生装置で再生し た場合には新規格で記録された部分に対応して、 メ ッセージ信号が 再生されるようにすることにより、 実際にどの曲が旧規格で記録さ れているのかを旧規格対応再生装置の使用者に知らせるようにする 方法も提案している。
しかしながら、 これらの方法においては、 旧規格対応再生装置で は実際に記録されている音を再生することができない。 このため、 本件出願人は、 日本特許出願平 9一 4 2 5 1 4号の明細書及び図面 により、 エンコーダによってその大きさが制御不可能なフレーム毎 に多チャネルの信号を符号化する符号化方法において、 旧規格対応 再生装置が再生すべきチヤネルの信号をそのフレームにおいて割当 可能な最大ビッ ト数よりも少ないビッ ト数で符号化し、 そのように してできたフレーム内の空き領域に他のチャネルの信号を符号化す るすることにより、 旧規格対応再生装置でも少数のチャネルの信号 を再生できるようにするとともに、 新規格対応の再生装置を用いれ ば、 より多くのチャネルの信号が再生できるようにする方法を提案 している。 またこの方法では旧規格対応再生装置では再生しないチ ャネルの信号の符号化方法を旧規格の符号化方法よりも符号化効率 の良いものとすることにより、 多チャネル信号を符号化することに よって生じる音質低下を軽減することが可能である。 この方法にお いて旧規格対応再生装置が再生可能な領域を領域 1、 旧規格対応再 生装置では再生しない領域を領域 2とする場合、 例えば、 領域 1に A = ( L + R ) / 2、 領域 2に B = ( L - R ) / 2の信号を記録し たすることにより、 旧規格対応再生装置ではモノラル信号 Aを再生 し,、 新規格対応再生装置では A , Bチャネルからステレオ信号 L , Rを再生することが可能となる。
( L + R ) / 2と (L— R ) / 2の信号を符号化して記録し、 ス テレオ信号を再生する方法については、 例えば文献 「広帯域ステレ ォ信号の知覚変換符号化」 (" Perceptual Transform Coding of W ide-band Stereo Signals" , James D . Johnston , ICASSP89, pp . 1993-1995) に述べられている。
しかしながら、 これらの方法を用いてステレオ信号を再生する場 合、 ステレオ信号の種類によっては符号化により生じる量子化雑音 が問題を起こす場合がある。
図 1 A〜 1 Hにはこれらの方法において、 一般的なステレオ信号 を符号化、 復号化して再生する場合に生じる量子化雑音の様子につ いて示す。 この図 1 A, I Bは、 ステレオ信号の左チャネル成分 (L) 及び ステレオ信号の右チャネル成分 (R) の時間軸波形をそれぞれ表し、 図 1 C, 1 Dは L, Rのチャネル成分を (L+R) / 2 , ( L - R) / 2にチャネル変換した信号の時間軸波形をそれぞれ表してい る。 図 1 C, 1 Dでは上記 ( L +R) /2を A、 (L— I /2を Bで表している。 一般に、 ステレオ信号の各々のチャネル間には強 い相関性が存在しているため B = (L-R) /2は原信号 L又は R に比べてその信号レベルがかなり小さいものとなる。
また、 図 1 E, 1 Fは、 上記 ( L + R) / 2 = A, (L-R) / 2 = Bの信号をそれぞれ上記高能率符号化方法により符号化して復 号化する際に生じる量子化雑音の様子を表し、 図中 N 1と N 2は
(L +R) /2=A, (L-R) /2 =Bの信号を符号化する際に 生じる量子化雑音成分の時間軸波形をそれぞれ表している。 ここで、 (L+R) / 2 = Aを符号化及び復号化した後の信号は A + N 1、 (L一 R) / 2 = Bを符号化及び復号化した後の信号は B +N 2で それぞれ表すことができる。 高能率符号化方法において量子化雑音 のレベルは元の信号レベルに依存する場合が多く、 この場合は N 1 に比べて N 2の信号レベルはかなり小さいものとなっている。
図 1 G, 1 Hは (A + N l ) , (B + N 2 ) の信号波形からステ レオ信号の各々のチャネルを分離した様子を示している。 ( A + N 1) と (B+N2) の信号を加えることにより Rチャネル成分が消 え、 L成分だけを取り出すことができ、 また (A + N 1) から (B + N 2 ) の信号を引くことにより Lチャネル成分が消え、 Rチヤネ ル成分だけを取り出すことができる。
量子化雑音成分 N 1と N 2は (N 1 +N2) 又は (N 1— N 2) という形で残るが、 N 2のレベルは N 1に比べて極めて小さいため、 聴感上は特に問題にならない。
一方、 図 2 A, 2 Hには右チャネル (R) の信号レベルが左チヤ ネル (L) の信号レベルに比べて非常に小さいステレオ信号を例に 同様に量子化雑音の様子について示している。 図 2 A, 2 Bはステ レオ信号の左チャネル成分 (L) 、 及びステレオ信号の右チャネル 成分 (R) の時間軸波形をそれぞれ表し、 図 2 C, 2 Dは L, Rチ ャネル成分を (L + R) /2 , (L-R) /2にチャネル変換した 信号の時間軸波形をそれそれ表している。 この図 2 C, 2 Dでも図 1の例と同じように上記 ( L + R ) / 2を A、 (L -R) / 2を B で表している。 この例では Rのチャネル成分の信号レベルが小さく 両チャネル間の相関がないため B二 ( L -R) / 2の信号レベルは 小さくならず、 むしろ A= (L+R) / 2に近い信号となる。
図 2 E, 2 Fも図 1 と同様に上記 ( L +R) /2 = A, ( L - R) /2二 Bの信号をそれぞれ上記高能率符号化方法により符号化 して復号化する際に生じる量子化雑音の様子を表し、 図中 N 1と N 2は (L +R) /2 =A, (L -R) /2 =Bの信号を符号化する 際に生じる量子化雑音成分の時間軸波形をそれぞれ表している。 こ こで、 図 1の例と同様に、 (L+R) /2 =Aを符号化及び復号化 した後の信号は A + N 1、 (L-R) / 2 = Bを符号化及び復号化 した後の信号は B + N 2でそれぞれ表すことができる。
図 2 G, 2 Hも図 1と同様に (A + N l ) , (B + N 2 ) の信号 波形からステレオ信号の各々のチャネルを分離した様子を示してい る。 (A + N 1 ) と (B + N 2 ) の信号を加えることにより Rチヤ ネル成分が消え、 L成分だけを取り出すことができ、 また (A + N 1 ) から (B + N 2 ) の信号を引くことにより Lチャネル成分が消 え、 Rチャネル成分だけを取り出すことができる。
この図 2の例の場合も量子化雑音成分 N 1 と N 2は (N 1 + N
2 ) 又は (N 1—N 2 ) という形で残るが、 この例では Rチャネル 成分の信号レベルが非常に小さいため、 Rチャネル成分で (N 1— N 2 ) の量子化雑音成分をマスクすることができず、 ; チャネル側 で量子化雑音が聞こえてしまう場合がある。 発明の開示 そこで、 本発明はこのような実情を鑑みてなされたものであり、 旧規格対応再生装置による再生を可能にしながら、 新規格拡張によ つて多チャネル化を実現する符号化 ·復号化の際に、 符号化により 生じる量子化雑音を最小限に抑え、 音質劣化を軽減できる符号化方 法及び装置、 復号化装置、 並びに記録媒体を提供することを目的と するものである。
すなわち本発明は、 例えば旧規格対応再生装置による再生を可能 にしながら、 新規格拡張によって多チャネル化を実現する符号化 · 復号化方法において、 拡張部分のチャネル信号を入力信号に応じて 最適に選択し、 符号化により生じる量子化雑音を最小限に抑えるこ とにより音質劣化を軽減するものである。
本発明に係る符号化方法は、 複数の入力チャネルの信号から第 1 の信号を生成し、 複数の入力チャネルのうちの一部のチャネルと他 のチャネルの信号レベルを求め、 信号レベルに基づいて、 一部のチ ャネルの信号のみからなる第 2の信号と複数の入力チャネルの信号 から生成した第 2の信号との何れかを選択し、 第 1の信号及び選択 した第 2の信号を符号化する。
本発明に係る符号化装置は、 複数の入力チャネルの信号から第 1 の信号を生成する第 1の信号生成手段と、 複数の入力チャネルのう ちの一部のチャネルと他のチャネルの信号レベルに基づいて、 一部 のチャネルの信号のみからなる第 2の信号と複数の入力チャネルの 信号から生成した第 2の信号との何れかを選択する第 2の信号生成 手段と、 第 1の信号及び選択した第 2の信号を符号化する符号化手 段とを具備する。
本発明に係る復号化方法は、 符号列から第 1の符号化信号と、 第 2の符号化信号と、 第 2の符号化信号の構成するチャネル信号の構 成状態を示す構成情報とを分離し、 分離した第 1及び第 2の符号化 信号をそれそれ復号化して第 1及び第 2の信号を生成し、 構成情報 に基づいて、 第 1及び第 2の信号から複数のチャネル信号を生成す るための復元処理を選択する。
本発明に係る復号化方法は、 複数のチャネルの信号から生成され て符号化された第 1の符号化信号と、 複数のチャネルのうちの一部 のチヤネルと他のチヤネルの信号レベルに基づいて一部のチヤネル の信号のみからなる第 2の信号又は複数のチャネルの信号から生成 した第 2の信号の何れかが選択されて符号化された第 2の符号化信 号とを含む符号列から第 1及び第 2の符号化信号を分離し、 分離し た第 1及び第 2の符号化信号をそれぞれ復号化し、 復号化した第 1 及び第 2の信号から複数チャネルの信号を復元する。
本発明に係る復号化装置は、 符号列から第 1の符号化信号と、 第 2の符号化信号と、 第 2の符号化信号の構成するチャネル信号の構 成状態を示す構成情報とを分離する分離手段と、 分離した第 1及び 第 2の符号化信号をそれぞれ復号化して第 1及び第 2の信号を生成 する復号化手段と、 構成情報に基づいて、 第 1及び第 2の信号から 複数のチャネル信号を生成するための復元処理を選択する制御手段 とを具備する。
本発明に係る復号化装置は、 複数のチャネルの信号から生成され て符号化された第 1の符号化信号と、 複数のチャネルのうちの一部 のチャネルと他のチャネルの信号レベルに基づいて一部のチャネル の信号のみからなる第 2の信号又は複数のチャネルの信号から生成 した第 2の信号の何れかが選択されて符号化された第 2の符号化信 号とを含む符号列から第 1及び第 2の符号化信号を分離する分離手 段と、 分離した第 1及び第 2の符号化信号をそれぞれ復号化する復 号化手段と、 復号化した第 1及び第 2の信号から複数チャネルの信 号を復元する復元手段とを具備する。 図面の簡単な説明 図 1 A〜 1 Hは、 一般的なステレオ信号を、 従来技術によって符 号化及び復号化して再生する場合に生じる量子化雑音の様子につい ての説明に用いる図である。
図 2 A〜 2 Hは、 右チャネル (R ) の信号レベルが左チャネル ( L ) の信号レベルに比べて非常に小さいステレオ信号を、 従来技 術によって符号化及び復号化して再生する場合に生じる量子化雑音 の様子についての説明に用いる図である。
図 3は、 本発明に係わる圧縮デ一夕の記録再生装置の一実施の形 態としての記録再生装置の構成例を示すプロック回路図である。 図 4は、 符号化装置の具体的構成例を示すプロック回路図である。 図 5は、 変換回路の具体的構成例を示すプロック回路図である。 図 6は、 信号成分符号化回路の具体的構成例を示すプロック回路 図である。
図 7は、 復号化装置の具体的構成例を示すプロック回路図である。 図 8は、 逆変換回路の具体的構成例を示すプロック回路図である。 図 9は、 信号成分複号化回路の具体的構成例を示すプロック回路 図である。
図 1 0は、 基本的な符号化方法を説明するための図である。
図 1 1は、 基本的な符号化方法にて符号化したフレームの符号列 の構成を説明するための図である。
図 1 2は、 フレーム毎に L , Rチャネルを配置する例を示す図で ある。
図 1 3は、 (L + R ) Z 2のチャネルをフレームに配置する例を 示す図である。
図 1 4は、 信号成分を トーン成分とノイズ成分に分けて符号化す る符号化方法を説明するための図である。
図 1 5は、 信号成分を トーン成分とノイズ成分に分けて符号化す る符号化方法で符号化したフレームの符号列の構成を説明するため の図である。
図 1 6は、 信号成分をトーン成分とノイズ成分に分けて符号化す る信号成分符号化回路の具体的構成例を示すプロック回路図である。 図 1 7は、 信号成分をトーン成分とノイズ成分に分けて符号化さ れた信号を復号する信号成分復号化回路の具体的構成例を示すプロ ック回路図である。
図 1 8は、 Aコーデックの符号列を記録する場合の記録フォーマ ッ トを説明するための図である。
図 1 9は、 Aコ一デックと Bコ一デックの符号列を記録する場合 の記録フォーマッ トを説明するための図である。
図 2 0は、 Aコーデックと Bコ一デックの符号列を記録した場合 に旧規格対応再生装置で誤って Bコーデックを再生しないことを実 現する記録フォーマツ トを説明するための図である。
図 2 1は、 Aコ一デックと Bコーデックの信号をフレーム内に配 置する符号列の構成を説明するための図である。
図 2 2は、 Aコーデックと Bコーデックの信号をフレーム内に配 置する符号列を生成する符号化装置の具体的構成を示すプロック回 路図である。
図 2 3は、 Aコ一デックと Bコ一デヅクの信号をフレーム内に配 置する符号列を生成する符号化装置の処理例を示すフローチヤ一ト である。
図 2 4は、 Aコーデックと Bコ一デヅクの信号をフレーム内に配 置する符号列を復号する信号成分復号化装置の具体的構成を示すブ 口ック回路図である。
図 2 5は、 Aコーデックと Bコ一デックの信号をフレーム内に配 置する符号列を復号する信号成分復号化装置の処理例を示すフロー チャートである。
図 2 6は、 チャネル構成デ一夕と Aチャネル及び Bチャネルの信 号をフレーム内に配置する本発明実施の形態の符号列の構成を説明 するための図である。 図 2 7は、 チャネル構成デ一夕と Aチャネル及び Bチャネルの信 号をフレーム内に配置する本発明実施の形態の符号列を生成する符 号化装置の具体的構成を示すプロック回路図である。
図 2 8は、 本発明実施の形態の符号列を生成する符号化装置の制 御回路の処理の流れを示すフロ一チヤ一トである。
図 2 9は、 チャネル構成デ一夕と Aチャネル及び Bチャネルの信 号をフレーム内に配置する符号列を生成する本発明実施の形態の符 号化装置の処理例を示すフローチヤ一トである。
図 3 0は、 チャネル構成デ一夕と Aチャネル及び Bチャネルの信 号をフレーム内に配置する符号列を復号する本発明実施の形態の符 号化装置の具体的構成を示すプロック回路図である。
図 3 1は、 本発明実施の形態の符号列を復号化する復号化装置の 処理の流れを示すフ口一チャートである。
図 3 2は、 本発明実施の形態の符号列を復号化する復号化装置に て復号モードを決定する処理の流れを示すフローチヤ一トである。 図 3 3 A〜 3 3 Hは、 右チャネル (R ) の信号レベルが左チヤネ ル ( L ) の信号レベルに比べて非常に小さいステレオ信号を、 本発 明実施の形態によって符号化及び復号化して再生した場合に生ずる 量子化雑音の様子についての説明に用いる図である。 発明を実施するための最良の形態 以下、 本発明の具体的な実施の形態について、 図面を参照しなが ら説明する。 先ず、 図 3には本発明の一実施の形態が適用される圧 縮データ記録及び/又は再生装置の概略構成を示す。 図 3に示す圧縮データ記録及び/又は再生装置において、 先ず記 録媒体としては、 スピン ドルモー夕 (M ) 5 1により回転駆動され る光磁気ディスク 1が用いられる。 光磁気ディスク 1に対するデ一 夕の記録時には、 例えば光学ヘッ ド (H ) 5 3により レーザ光を照 射した状態で記録データに応じた変調磁界を磁気へッ ド 5 4により 印加することによって、 いわゆる磁界変調記録を行い、 光磁気ディ スク 1の記録トラックに沿ってデ一夕を記録する。 また再生時には、 光磁気ディスク 1の記録トラックを光学へッ ド 5 3によりレーザ光 で トレースして磁気光学的に再生を行う。
光学ヘッ ド 5 3は、 例えば、 レーザダイオード等のレーザ光源、 コリメ一夕レンズ、 対物レンズ、 偏光ビームスプリ ツ夕、 シリン ド リカルレンズ等の光学部品及び所定パターンの受光部を有するフォ トディテクタ等から構成されている。 この光学ヘッ ド 5 3は、 光磁 気ディスク 1を介して磁気へッ ド 5 4と対向する位置に設けられて いる。 光磁気ディスク 1にデ一夕を記録するときには、 後述する記 録系の磁気へッ ド駆動回路 6 6により磁気へッ ド 5 4を駆動して記 録デ一夕に応じた変調磁界を印加するとともに、 光学へッ ド 5 3に より光磁気ディスク 1の目的トラックにレーザ光を照射することに よって、 磁界変調方式により熱磁気記録を行う。 またこの光学へッ ド 5 3は、 目的トラックに照射したレーザ光の反射光を検出し、 例 えばいわゆる非点収差法によりフォーカスエラーを検出し、 例えば いわゆるプッシュプル法により トラッキングエラ一を検出する。 光 磁気ディスク 1からデータを再生するとき、 光学へッ ド 5 3は上記 フォーカスエラ一やトラッキングエラーを検出すると同時に、 レー ザ光の目的トラックからの反射光の偏光角 (カー回転角) の違いを 検出して再生信号を生成する。
光学ヘッ ド 5 3の出力は、 R F回路 5 5に供給される。 この R F 回路 5 5は、 光学へッ ド 5 3の出力から上記フォーカスエラ一信号 やトラッキングエラー信号を抽出してサーボ制御回路 5 6に供給す るとともに、 再生信号を 2値化して後述する再生系のデコーダ 7 1 に供給する。
サ一ボ制御回路 5 6は、 例えばフォーカスサ一ボ制御回路やトラ ッキングサーボ制御回路、 スピンドルモ一夕サ一ボ制御回路、 スレ ッ ドサーボ制御回路等から構成される。 上記フォーカスサーボ制御 回路は、 上記フォーカスエラ一信号がゼロになるように、 光学へヅ ド 5 3の光学系のフォーカス制御を行う。 また上記トラッキングサ —ボ制御回路は、 上記トラツキングエラ一信号がゼ口になるように 光学ヘッ ド 5 3の光学系のトラッキング制御を行う。 さらに上記ス ピンドルモ一夕サーボ制御回路は、 光磁気ディスク 1を所定の回転 速度 (例えば一定線速度) で回転駆動するようにスピン ドルモー夕 5 1を制御する。 また、 上記スレッ ドサーボ制御回路は、 システム コン トローラ 5 7により指定される光磁気ディスク 1の目的トラッ ク位置に光学へッ ド 5 3及び磁気へッ ド 5 4を移動させる。 このよ うな各種制御動作を行うサーボ制御回路 5 6は、 該サーボ制御回路 5 6により制御される各部の動作状態を示す情報をシステムコン ト ローラ 5 7に送る。
システムコントローラ 5 7にはキー入力操作部 5 8や表示部 (デ イスプレイ) 5 9が接続されている。 このシステムコン トローラ 5 7は、 キー入力操作部 5 8による操作入力情報により操作入力情報 により記録系及び再生系の制御を行う。 またシステムコン トローラ 5 7は、 光磁気デイ スク 1の記録トラックからヘッダタイムやサブ コードの Qデ一夕等により再生されるセクタ単位のァドレス情報に 基づいて、 光学へヅ ド 5 3及び磁気へッ ド 5 4がト レースしている 上記記録トラック上の記録位置や再生位置を管理する。 さらにシス テムコン トローラ 5 7は、 本圧縮デ一夕記録再生装置のデータ圧縮 率と上記記録トラック上の再生位置情報とに基づいて表示部 5 9に 再生時間を表示させる制御を行う。
この再生時間表示は、 光磁気ディスク 1の記録トラックからいわ ゆるヘッダタイムやいわゆるサブコ一ド Qデ一夕等により再生され るセクタ単位のア ド レス情報 (絶対時間情報) に対し、 デ一夕圧縮 率の逆数 (例えば 1 Z 4圧縮のときには 4 ) を乗算することにより、 実際の時間情報を求め、 これを表示部 5 9に表示させるものである。 なお、 記録時においても、 例えば光磁気ディスク等の記録トラック に予め絶対時間情報が記録されている (プリフォーマツ 卜されてい る) 場合に、 このプリフォーマッ トされた絶対時間情報を読み取つ てデータ圧縮率の逆数を乗算することにより、 現在位置を実際の記 録時間で表示させることも可能である。
次にこのディスク記録再生装置の記録系において、 入力端子 6 0 からのアナログオーディォ入力信号 A inがローバスフィル夕 (L P F ) 6 1を介して A / D変換器 6 2に供給され、 この A/ D変換器
6 2は上記アナログオーディオ入力信号 A inを量子化する。 A/D 変換器 6 2から得られたディジタルオーディオ信号は、 A T C (Ad aptive Transform Coding) エンコーダ 6 3に供給される。 また、 入 力端子 6 7からのディジ夕ルオーディオ入力信号 D inがディジ夕ル 入力イン夕一フェース回路 (ディジ夕ル入力) 6 8を介して A T C エンコーダ 63に供給される。 A T Cエンコーダ 63は、 上記入力 信号 Ainを A/D変換器 6 2により量子化した所定転送速度のディ ジ夕ルオーディオ P CMデ一夕について、 所定のデータ圧縮率に応 じたビヅ 卜圧縮 (データ圧縮) 処理を行うものであり、 A T Cェン コーダ 63から出力される圧縮デ一夕 (AT Cデ一夕) は、 メモリ 64に供給される。 例えばデ一夕圧縮率が 1/8の場合について説 明すると、 ここでのデ一夕転送速度は、 上記標準の CD— D Aのフ ォ一マツ 卜のデ一夕転送速度 ( 7 5セクタ/秒) の 1 / 8 (9.375セ クタ/秒) に低減されている。
次に、 メモリ 64は、 データの書込及び読出がシステムコン ト口 —ラ 5 7により制御され、 A T Cエンコーダ 63から供給される A T Cデ一夕を一時的に記憶しておき、 必要に応じてディスク上に記 録するためのバッファメモリ として用いられている。 すなわち、 例 えばデータ圧縮率が 1/8の場合において、 AT Cエンコーダ 63 から供給される圧縮オーディオデ一夕は、 そのデータ転送速度が、 標準的な CD _D Aフォーマツ トのデ一夕転送速度 ( 7 5セクタ/ 秒) の 1 /8、 すなわち 9. 3 7 5セクタ/秒に低減されており、 この圧縮デ一夕がメモリ 64に連続的に書き込まれる。 この圧縮デ —夕 (AT Cデータ) は、 前述したように 8セクタにつき 1セクタ の記録を行えば足りるが、 このような 8セクタおきの記録は事実上 不可能に近いため、 後述するようなセクタ連続の記録を行うように している。 この記録は、 休止期間を介して、 所定の複数セクタ (例 えば 3 2セクタ十数セクタ) からなるクラス夕を記録単位として、 標準的な CD— D Aフォーマツ トと同じデータ転送速度 ( 7 5セク 夕/秒) でバ一ス ト的に行われる。 すなわちメモリ 6 4においては、 上記ビッ ト圧縮レートに応じた 9 . 3 7 5 ( = 7 5 / 8 ) セクタ/秒の低い転送速度で連続的に書 き込まれたデータ圧縮率 1 / 8の A T Cオーディオデータが、 記録 デ一夕として上記 7 5セクタ/秒の転送速度でバース ト的に読み出 される。 この読み出されて記録されるデ一夕について、 記録休止期 間を含む全体的なデ一夕転送速度は、 上記 9 . 3 7 5セクタ/秒の 低い速度となっているが、 バース ト的に行われる記録動作の時間内 での瞬時的なデ一夕転送速度は上記標準的な 7 5セクタ/秒となつ ている。 したがって、 ディスク回転速度が標準的な C D— D Aフォ 一マツ 卜と同じ速度 (一定線速度) のとき、 該 C D— D Aフォーマ ッ トと同じ記録密度、 記憶パターンの記録が行われることになる。 メモリ 6 4から上記 7 5セクタ/秒の (瞬時的な) 転送速度でバ —ス ト的に読み出された A T Cオーディオデ一夕すなわち記録デ一 夕は、 エンコーダ 6 5に供給される。 ここで、 メモリ 6 4からェン コーダ 6 5に供給されるデータ列において、 1回の記録で連続記録 される単位は、 複数セクタ (例えば 3 2セクタ) からなるクラス夕 及び該クラス夕の前後位置に配されたクラス夕接続用の数セクタと している。 このクラス夕接続用セクタは、 エンコーダ 6 5でのイン 夕一リーブ長より長く設定しており、 イン夕一リーブされても他の クラス夕のデ一夕に影響を与えないようにしている。
エンコーダ 6 5は、 メモリ 6 4から上述したようにバース ト的に 供給される記録データについて、 エラー訂正のための符号化処理 (パリティ付加及びィン夕一リ一ブ処理) や E F M符号化処理など を施す。 このエンコーダ 6 5による符号化処理の施された記録デ一 夕が磁気へッ ド駆動回路 6 6に供給される。 この磁気へッ ド駆動回 路 6 6は、 磁気ヘッ ド 5 4が接続されており、 上記記録データに応 じた変調磁界を光磁気ディスク 1に印加するように磁気へッ ド 5 4 を駆動する。
また、 システムコン トローラ 5 7は、 メモリ 6 4に対する上述の 如きメモリ制御を行うとともに、 このメモリ制御によりメモリ 6 4 からバース ト的に読み出される上記記録デ一夕を光磁気ディスク 1 の記録トラックに連続的に記録するように記録位置の制御を行う。 この記録位置の制御は、 システムコン トローラ 5 7によりメモリ 6 4からバース ト的に読み出される上記記録データの記録位置を管理 して、 光磁気ディスク 1の記録トラック上の記録位置を指定する制 御信号をサ一ボ制御回路 5 6に供給することによって行われる。 次に再生系について説明する。 この再生系は、 上述の記録系によ り光磁気ディスク 1の記録トラック上に連続的に記録された記録デ 一夕を再生するためのものであり、 光学へッ ド 5 3によって光磁気 ディスク 1の記録トラックをレーザ光でトレースすることにより得 られる再生出力が R F回路 5 5により 2値化されて供給されるデコ —ダ 7 1を備えている。 このとき光磁気ディスクのみではなく、 い わゆるコンパク トディスク ( C D : Compact D isc, 商標) と同じ再 生専用光ディスクの読み出しも行うことができる。
デコーダ 7 1は、 上述の記録系におけるエンコーダ 6 5に対応す るものであって、 R F回路 5 5により 2値化された再生出力につい て、 エラー訂正のための上述の如き復号化処理や E F M復号化処理 などの処理を行い、 上述のデータ圧縮率 1 / 8の A T Cオーディオ データを、 正規の転送速度よりも速い Ί 5セクタ/秒の転送速度で 再生する。 このデコーダ 7 1により得られる再生データは、 メモリ 7 2に供給される。
メモリ 7 2は、 デ一夕の書込及び読出がシステムコン トローラ 5 7により制御され、 デコーダ 7 1から 7 5セクタ/秒の転送速度で 供給される再生デ一夕がその 7 5セクタ/秒の転送速度でバース ト 的に書き込まれる。 また、 このメモリ 7 2は、 上記 7 5セクタ/秒 の転送速度でバース ト的に書き込まれた上記再生デ一夕がデ一夕圧 縮率 1 / 8に対応する 9 . 3 7 5セクタ/秒の転送速度で連続的に 読み出される。
システムコン トローラ 5 7は、 再生デ一夕をメモリ 7 2に 7 5セ クタ/秒の転送速度で書き込むとともに、 メモリ 7 2から上記再生 データを上記 9 . 3 7 5セクタ/秒の転送速度で連続的に読み出す ようなメモリ制御を行う。 また、 システムコントローラ 5 7は、 メ モリ 7 2に対する上述の如きメモリ制御を行うとともに、 このメモ リ制御によりメモリ 7 2からバース ト的に書き込まれる上記再生デ —夕を光磁気デイスク 1の記録トラックから連続的に再生するよう に再生位置の制御を行う。 この再生位置の制御は、 システムコン ト ローラ 5 7によりメモリ 7 2からバース ト的に読み出される上記再 生デ一夕の再生位置を管理して、 光磁気ディスク 1若しくは光磁気 ディスク 1の記録トラック上の再生位置を指定する制御信号をサー ボ制御回路 5 6に供給することによって行われる。
メモリ 7 2から 9 . 3 7 5セクタ/秒の転送速度で連続的に読み 出された再生データとして得られる A T Cオーディォデ一夕は、 A T Cデコーダ 7 3に供給される。 この A T Cデコーダ 7 3は、 記録 系の A T Cエンコーダ 6 3に対応するもので、 例えば A T Cデ一夕 を 8倍にデータ伸張 (ビッ ト伸張) することで 1 6 ビッ トのデイジ 夕ルオーディオデータを再生する。 この AT Cデコーダ 73からの ディ ジ夕ルオーディォデ一夕は、 D/A変換器 74に供給される。
D/A変換器 74は、 ATCデコーダ 73から供給されるデイジ 夕ルオーディォデ一夕をアナログ信号に変換して、 アナログオーデ ィォ出力信号 Aoutを形成する。 この D/A変換器 74により得られ るアナログオーディオ信号 Aoutは、 口一パスフィル夕 (LPF) 7 5を介して出力端子 76から出力される。
次に、 高能率圧縮符号化について詳述する。 すなわち、 オーディ ォ P CM信号等の入力ディジタル信号を、 帯域分割符号化 (SB C) 、 適応変換符号化 (ATC) 及び適応ビッ ト割当の各技術を用 いて高能率符号化する技術について、 図 4以降を参照しながら説明 する。
本発明に係る音響波形信号の符号化方法を実行する符号化装置 (図 3のエンコーダ 63) では、 図 4に示すように、 入力された信 号波形 1 10 aを変換回路 1 1 1 aによって信号周波数成分 1 10 bに変換し、 得られた各周波数成分 1 10 bを信号成分符号化回路 1 1 1 bによって符号化し、 その後、 符号列生成回路 1 1 1 cにお いて、 信号成分符号化回路 1 1 1 bにて生成された符号化信号 1 1 0 cから符号列 1 10 dを生成する。
また、 変換回路 1 1 1 aにおいては、 図 5に示すように、 入力信 号 120 aを帯域分割フィル夕 1 12 aによって 2つの帯域に分割 し、 得られた 2つの帯域の信号 120 b, 1 20 cを MD C T等を 用いた順スぺク トル変換回路 1 12 b, 1 1 2 cによりスペク トル 信号成分 1 20 d , 120 eに変換する。 なお、 入力信号 1 20 a は、 図 4の信号波形 1 1 0 aに対応し、 また、 スペク トル信号成分 1 2 0 d、 1 2 0 eは図 4の信号周波数成分 1 1 0 bに対応してい る。 この図 5に示す構成を有する変換回路 1 1 1 aでは、 上記 2つ の帯域に分割された信号 1 2 0 b、 1 2 0 cの帯域幅が入力信号 1
2 0 aの帯域幅の 1 / 2となっており、 該入力信号 1 2 0 aが 1 / 2に間引かれている。 もちろん、 当該変換回路 1 1 1 aとしては、 この具体例以外にも多数考えられ、 例えば、 入力信号を直接、 M D C Tによってスぺク トル信号に変換するものでも良いし、 M D C T ではなく、 D F Tや D C Tによって変換するものであっても良い。 また、 いわゆる帯域分割フィル夕によって信号を帯域成分に分割す ることも可能であるが、 本発明に係る符号化方法においては、 多数 の周波数成分が比較的少ない演算量で得られる、 上述のスぺク トル 変換によって周波数成分に変換する方法を採ると都合が良い。
また、 信号成分符号化回路 1 1 1 bでは、 図 6に示すように、 各 信号成分 1 3 0 aを正規化回路 1 1 3 aによって所定の帯域毎に正 規化するとともに、 量子化精度決定回路 1 1 3 bにて信号成分 1 3 0 aから量子化精度情報 1 3 0 cを計算し、 当該量子化精度情報 1
3 0 cに基づいて、 正規化回路 1 1 3 aからの正規化信号 1 3 0 b を量子化回路 1 1 3 cが量子化する。 なお、 各信号成分 1 3 0 aは、 図 4の信号周波数成分 1 1 0 bに対応し、 量子化回路 1 1 3 cの出 力信号 1 3 0 dは、 図 4の符号化信号 1 1 0 cに対応している。 た だし、 この出力信号 1 3 0 dには、 量子化された信号成分に加え、 上記正規化の際の正規化係数情報や上記量子化精度情報も含まれて いる。
一方、 上述したような符号化装置によって生成された符号列から オーディオ信号を再現する復号化装置 (図 3の例ではデコーダ 7 3 ) においては、 図 7に示すように、 符号列分解回路 1 1 4 aによ つて符号列 1 4 0 aから各信号成分の符号 1 4 0 bが抽出され、 そ れらの符号 1 4 0 bから信号成分復号化回路 1 1 4 bによって各信 号成分 1 4 0 cが復元され、 この復元された信号成分 1 4 0 cから、 逆変換回路 1 1 4 cによって音響波形信号 1 4 0 dが再現される。
この復号化装置の逆変換回路 1 1 4 cは、 図 8に示すように構成 されるものであって、 図 5に示した変換回路に対応したものである。 この図 8に示す逆変換回路 1 1 4 cにおいて、 逆スぺク トル変換回 路 1 1 5 a , 1 1 5 bでは、 それぞれ供給された入力信号 1 5 0 a , 1 5 0 bに逆スぺク トル変換を施して各帯域の信号を復元し、 帯域 合成フィル夕 1 1 5 cではこれら各帯域信号を合成する。 入力信号
1 5 0 a , 1 5 0 bは、 図 7の信号成分復号化回路 1 1 4 bによつ て各信号成分が復元された信号 1 4 0 cに対応している。 また、 帯 域合成フィルタ 1 1 5 cの出力信号 1 5 0 eは、 図 7の音響波形信 号 1 4 0 dに対応している。
また、 図 7の信号成分復号化回路 1 1 4 bは、 図 9に示すように 構成されるものであり、 図 7の符号列分解回路 1 1 4 aからの符号 1 4 0 bすなわちスぺク トル信号に対して、 逆量子化と逆正規化処 理とを施すものである。 この図 9に示す信号成分復号化回路 1 1 4 bにおいて、 逆量子化回路 1 1 6 aでは入力された符号 1 6 0 aを 逆量子化し、 逆正規化回路 1 1 6 bでは上記逆量子化により得られ た信号 1 6 0 bを逆正規化して信号成分 1 6 0 cを出力する。 符号
1 6 0 aは、 図 7の符号列分解回路 1 1 4 aからの符号 1 4 0 に 対応し、 出力信号成分 1 6 0 cは図 7の信号成分 1 4 0 cに対応し ている。 なお、 上述のような符号化装置の図 5に示した変換回路によって 得られるスぺク トル信号は、 例えば図 1 0に示すようなものとなる。 この図 1 0に示す各スぺク トル成分は、 M D C Tによるスぺク トル 成分の絶対値を、 レベルを 〔d B〕 に変換して示したものである。 すなわちこの信号符号化装置においては、 入力信号を所定の変換ブ ロック毎に 6 4個のスぺク トル信号に変換しており、 それを図中 〔 1〕 から 〔 8〕 にて示す 8つの帯域 (以下、 これを符号化ュニッ 卜と呼ぶ) にまとめて正規化及び量子化している。 このとき量子化 精度を周波数成分の分布の仕方によって上記符号化ュニッ ト毎に変 化させるようにすれば、 音質の劣化を最小限に抑えた聴覚的に効率 の良い符号化が可能となる。
次に、 図 1 1には、 上述の方法で符号化した場合の符号列の構成 例を示す。
この構成例の符号列は、 各変換プロックのスぺク トル信号を復元 するためのデ一夕が、 それぞれ所定のビッ ト数で構成されるフレー ムに対応して符号化された情報が配置されている。 各フレームの先 頭(ヘッダ部)には、 先ず同期信号及び符号化されている符号化ュニ ッ ト数等の制御データを一定のビッ ト数で符号化した情報が、 次に 各符号化ュニッ トの量子化精度データと正規化係数データをそれぞ れ低域側の符号化ュニッ 卜から符号化した情報が、 最後に各符号化 ュニッ ト毎に、 上述の正規化係数デ一夕及び量子化精度デ一夕に基 づいて正規化及び量子化されたスぺク トル係数デ一夕を低域側から 符号化した情報が配置されている。
この変換プロックのスぺク トル信号を復元するために実際に必要 なビッ ト数は、 上記符号化されている符号化ユニッ トの数、 及び各 符号化ュニッ 卜の量子化精度情報が示す量子化ビッ ト数によって決 まり、 その量は各フレーム毎に異なっていても良い。 各フレームの 先頭から上記必要なビッ ト数のみが再生時に意味を持ち、 各フレー ムの残りの領域は空き領域となり、 再生信号には影響を与えない。 通常は、 音質向上のためにより多くのビッ トを有効に使用して、 各 フレームの空き領域がなるべく小さくなるようにする。
この例のように、 各変換ブロヅクを一定のビヅ ト数のフレームに 対応させて符号化しておくことにより、 例えば、 この符号列を光デ ィスク等の記録媒体に記録した場合、 任意の変換プロックの記録位 置を容易に算出できるので、 任意の箇所から再生を行う、 いわゆる ランダム · アクセスを容易に実現することが可能である。
次に、 図 1 2と図 1 3には、 図 1 1に示したフレームのデータを 記録媒体等に例えば時系列的に配置する場合の記録フォーマッ トの 一例を示す。 図 1 2には、 例えば L (左) , R (右) の 2チャネル の信号をフレーム毎に交互に配置した例を示し、 図 1 3には、 L , の 2チャネルの信号を ( L + R ) / 2 して生成した 1チャネルの 信号 (L, Rの 2チャネルから生成されたモノラルの信号) をフレ ーム毎に配置した例を示している。
これら図 1 2のような記録フォーマッ トを採用することで、 同一 の記録媒体に対して L, Rの 2チャネルの信号を記録することがで き、 また、 図 1 3のように、 フレーム毎に上記 (L + R ) / 2の 1 チャネル分のみを配置する記録フォーマッ トを採用する場合には、 図 1 2のように L , : Rの 2チャネルをフレーム毎に交互に配置する 記録フォーマツ 卜に比べて、 倍の時間の信号の記録再生が可能にな るとともに、 再生回路を複雑にすることなく容易に再生することも 可能になる。
なお、 図 1 2のような記録フォーマツ トを例えば標準時間モード と呼ぶとすると、 図 1 3のように、 少ないチャネル数で長時間の信 号の記録再生を可能にする記録フォーマツ トは、 上記標準時間モー ドの倍の時間の記録再生ができる長時間モードと呼ぶことができる。 また、 図 1 2の例においても、 各フレームに対して L、 Rの 2チヤ ネルでなく、 モノラルの 1チャネルのみを記録するようにすれば、 L、 Rの 2チャネルを記録する場合よりも倍の時間の信号を記録で きることになり、 この場合も長時間モードと呼ぶことができる。 上述の説明では、 符号化方法として図 1 1にて説明した手法のみ を述べてきたが、 この図 1 1で説明した符号化方法に対して、 さら に符号化効率を高めることも可能である。
例えば、 量子化されたスペク トル信号のうち、 出現頻度の高いも のに対しては比較的短い符号長を割り当て、 出現頻度の低いものに 対しては比較的長い符号長を割り当てる、 いわゆる可変長符号化技 術を用いることによって、 符号化効率を高めることができる。
また例えば、 入力信号を符号化する際の上記所定の変換プロック、 すなわちスぺク トル変換のための時間プロック長を長く とるように すれば、 量子化精度情報や正規化係数情報といったサブ情報の量を 1ブロック当たりで相対的に削減でき、 また、 周波数分解能も上が るので、 周波数軸上での量子化精度をより細やかに制御できるよう になり、 符号化効率を高めることが可能となる。
さらにまた、 本件出願人による PCT出願国際公開 W094/28633の明細 書及び図面には、 スぺク トル信号成分から聴感上特に重要な トーン 性の信号成分を分離して、 他のスぺク トル信号成分とは別に符号化 する方法が提案されており、 これを用いれば、 オーディオ信号等を 聴感上の劣化を殆ど生じさせずに高い圧縮率で効率的に符号化する ことが可能になる。
ここで、 図 1 4を用いて、 上記トーン性の信号成分を分離して符 号化する方法を説明する。 この図 1 4の例では、 スペク トル信号成 分からそれぞれトーン性の信号成分としてまとまった 3個のトーン 成分を分離した様子を示しており、 これらの各トーン成分を構成す る各信号成分は、 各トーン成分の周波数軸上のそれぞれの位置デ一 夕とともに符号化される。
一般に、 音質を劣化させないためには少数のスぺク トルにェネル ギが集中する上記トーン成分の各信号成分を非常に高い精度で量子 化する必要があるが、 トーン成分を分離した後の各符号化ュニッ ト 内のスぺク トル係数 (非トーン性のスぺク トル信号成分) は聴感上 の音質を劣化させることなく、 比較的少ないステツプ数で量子化す ることができる。
図 1 4では、 図を簡略にするために、 比較的少数のスペク トル信 号成分しか図示していないが、 実際のトーン成分では、 数十のスぺ ク トル信号成分から構成される符号化ュニッ ト内の数個の信号成分 にエネルギが集中するので、 そのような トーン成分を分離したこと によるデータ量の増加は比較的少なく、 これら トーン成分を分離す ることによって、 全体として、 符号化効率を向上させることができ る。
次に、 図 1 5には、 図 1 4を用いて説明した方法で符号化した場 合の符号列の構成例を示す。 この構成例では、 各フレームの先頭に はヘッダ部として、 同期信号及び符号化されている符号化ュニッ ト 数等の制御データを所定のビッ ト数で符号化した情報が配置され、 次に トーン成分についてのデ一夕である トーン成分デ一夕を符号化 した情報が配置されている。
トーン成分データとしては、 最初に トーン成分内の各信号成分の 個数を符号化した情報が、 次に各トーン成分の周波数軸上の位置情 報を、 その後はトーン成分内での量子化精度デ一夕、 正規化係数デ —夕、 正規化及び量子化された トーン性の信号成分 (スぺク トル係 数データ) をそれぞれ符号化した情報が配置されている。
上記トーン成分データの次には、 元のスぺク トル信号成分から上 記ト一ン性の信号成分を差し引いた残りの信号 (ノィズ性の信号成 分ということもできる) のデ一夕が符号化された情報を配置してい る。 これには、 各符号化ユニッ トの量子化精度データと正規化係数 データ及び各符号化ュニッ ト毎に上述の正規化係数データ及び量子 化精度データに基づいて正規化及び量子化されたスぺク トル係数デ 一夕 ( トーン成分以外の信号成分) を、 それぞれ低域側の符号化ュ ニッ トから符号化した情報が配置されている。 ただし、 ここでトー ン性及びそれ以外の信号成分のスぺク トル信号成分 (係数デ一夕) は可変長の符号化がなされているものとする。
図 1 6には、 上記各信号成分から トーン性の信号成分を分離する 場合の、 図 4の信号成分符号化回路 1 1 l bの具体例を示す。
この図 1 6に示す信号成分符号化回路 1 1 1 bにおいて、 図 4の 変換回路 1 1 1 aから供給された信号成分 1 7 0 a ( 1 1 0 b ) は、 トーン成分分離回路 1 1 7 aに送られる。 信号成分 1 7 0 aは、 ト —ン性の信号成分とそれ以外の信号成分 (非トーン性の信号成分) とに分けられ、 トーン性の信号成分 1 7 0 bはトーン成分符号化回 路 1 1 7 bに、 非トーン性の信号成分 1 7 0 cは非トーン成分符号 化回路 1 1 7 cに送られる。 これら トーン成分符号化回路 1 1 7 b と非 トーン成分符号化回路 1 1 7 cでは、 それぞれ供給された信号 成分を符号化し、 それぞれ得られた出力信号 1 7 0 dと 1 7 0 eを 出力する。 なお、 トーン成分符号化回路 1 1 Ί bでは、 上記トーン 性の信号成分の符号化と同時に、 図 1 5のトーン成分データを構成 する各情報の生成をも行う。 トーン成分符号化回路 1 1 7 bと非ト —ン成分符号化回路 1 1 7 cにおける信号符号化のための構成は、 それぞれ図 6と同じである。
図 1 7には、 上記各信号成分から トーン性の信号成分を分離した 場合の、 図 7の信号成分復号化回路 1 1 4 bの具体例を示す。
この図 1 7に示す信号成分復号回路回路 1 1 4 bにおいて、 図 7 の符号列分解回路 1 1 4 aから供給された符号 1 4 0 bは、 上記ト ーン成分データ 1 8 0 aと非トーン性の信号成分 1 8 0 bからなり、 これらデ一夕及び信号成分はそれぞれ対応する トーン成分復号化回 路 1 1 8 aと非トーン成分復号化回路 1 1 8 bに送られる。 上記ト ーン成分復号化回路 1 1 8 aでは、 図 1 5に示したような トーン成 分デ一夕から トーン性の信号成分を復号化し、 得られた トーン性の 信号成分 1 8 0 cを出力する。 また、 上記非トーン成分復号化回路 1 1 8 bでは、 非トーン性の信号成分を復号化し、 得られた非トー ン性の信号成分 1 8 O dを出力する。 これら トーン性の信号成分 1 8 0 cと非トーン性の信号成分 1 8 0 dは、 共にスぺク トル信号合 成回路 1 1 8 cに送られる。 このスぺク トル信号合成回路 1 1 8 c では、 上記位置デ一夕に基づいて上記トーン性の信号成分と非トー ン性の信号成分とを合成し、 得られた信号成分 1 8 0 eを出力する。 なお、 トーン成分復号化回路 1 1 8 aと非トーン成分復号化回路 1 1 8 bにおける信号復号化のための構成は、 それぞれ図 9 と同じであ る。
ここで、 図 1 8には、 上述のようにして符号化された信号を、 例 えば光磁気ディスクに記録する場合のフォーマツ ト例を示す。 なお、 この図 1 8の例では、 全部で例えば 4個 ( 4曲) 分のオーディオ信 号デ一夕が記録されているとする。
この図 1 8において、 当該ディスクには、 これら全部で 4個分の オーディオ信号デ一夕とともに、 当該オーディオ信号データの記録、 再生を行う場合に使用する管理データも記録されている。 管理デー 夕領域の 0番地、 1番地には、 それぞれ先頭デ一夕番号、 最終デ一 夕番号が記録されている。 図 1 8の例では、 上記先頭データ番号の 値として 1が記録され、 最終デ一夕番号の値として 4が記録されて いる。 これにより、 このディスクには 1番目から 4番目までの 4個 のオーディオ信号データが記録されていることがわかる。
管理データ領域の 5番地から 8番地までには、 「各オーディオ信 号デ一夕がディスクのどこに記録されているかを示すデ一夕」 すな わちァドレス情報が、 当該管理データ領域内のどこに記録されてい るのかを示すァドレス格納位置の情報が記録されている。 このアド レス格納位置の情報はオーディオ信号デ一夕の再生順 (曲の演奏 順) に記録されており、 1番目に再生されるオーディオ信号デ一夕 のための上記ァドレス格納位置の情報は 5番地に、 2番目に再生さ れるオーディオ信号データのための上記ァドレス格納位置の情報は 6番地に、 といったようになつている。 このような管理データを用 いることにより、 例えば、 1番目と 2番目の再生の順番を入れ替え ることは、 実際のオーディオ信号データの記録位置を入れ替える代 わりに 5番地と 6番地の内容を入れ替えることによって容易に実現 できる。 また、 管理データ領域内には、 将来的な拡張が可能なよう に予備領域がとってあり、 そこには 0データが記録されるようにな つている。
さてここで、 ある符号化手法 (以下、 これを旧規格又は Aコーデ ヅクと呼ぶことにする) が開発され、 これを用いてディスクへの記 録フォーマッ トが規格化され、 その後、 当該 Aコ一デヅクを拡張し た、 より高能率な符号化手法 (以下、 これを新規格又は Bコ一デッ クと呼ぶことにする) が開発されたとする。 このような場合、 上記 Bコーデックにより符号化された信号は、 上記 Aコ一デックによる 信号が記録されるのと同一種類のディスクに記録できるようになる。 このように Bコ一デヅクによる信号も Aコ一デックの場合同様に記 録できると、 当該ディスクに対してより長時間の信号記録が可能に なったり、 より高音質の信号記録が可能になるので、 ディスクの用 途が広がり便利である。
上述した図 1 1を用いて説明した符号化方法を Aコ一デックと考 えた場合、 例えば前述したように、 量子化されたスペク トル信号の うち出現頻度の高いものに対しては比較的短い符号長を割り当て、 出現頻度の低いものに対しては比較的長い符号長を割り当てるいわ ゆる可変長符号化技術を用いた符号化方法を Bコ一デックと考える ことができる。 同様に、 例えば前述したように、 入力信号を符号化 する際の変換ブロック長を長く とるようにして量子化精度情報や正 規化係数情報等のサブ情報量を 1プロック当たりで相対的に削減す るような符号化方法を Bコーデックと考えることもできる。 また、 例えば前述したように、 スぺク トル信号成分をトーン成分と非トー ン成分とに分けて符号化する符号化方法を Bコーデックと考えるこ ともできる。 さらに、 それら高能率な符号化方法を組み合わせたも のを Bコーデックと考えることもできる。
上述のように Aコーデックを拡張した Bコーデックにより符号化 された信号をディスクに記録するような場合には、 図 1 8に示した ような旧規格 ( Aコーデック) のみに対応していたディスクでは予 備領域としていた 2番地に、 図 1 9に示すようなモード指定情報を 記録するようにする。 当該モード指定情報は、 値が 0のとき上記旧 規格 (Aコ一デック) に基づいた記録が行われていることを示し、 値が 1のとき Aコーデック又は Bコ一デゾクに基づいた記録が行わ れていることを示すものである。 したがって、 ディスク再生時に、 当該モ一ド指定情報の値が 1になっていれば、 当該ディスクには B コーデックに基づいた記録が行われている可能性があることを判別 できる。
また、 このように当該 Bコ一デックによる信号をディスクに記録 する場合には、 図 1 8で示したような各オーディオ信号データのァ ドレス情報 (スタートァドレス及びェン ドアドレス) を記録する領 域の次に設けてあった予備領域の一つを、 コーデック指定情報用の 領域として使用する。 当該コーデック指定情報は、 値が 0のとき上 記スタートアドレス及びエンドアドレスからなるアドレス情報にて 指定されるオーディオ信号データが、 上記旧規格 (Aコーデック) に基づいて符号化されていることを示し、 値が 1のとき上記ァドレ ス情報にて指定されるオーディオ信号データが新規格 (Bコ一デッ ク) に基づいて符号化されていることを示すものである。 これによ り、 Aコーデックにより符号化されたオーディオ信号データと Bコ —デックにより符号化されたオーディオ信号データを同一ディスク 上に混在させて記録できるとともに、 当該ディスクは新規格 (Bコ —デック) にも対応した再生装置 (以下、 新規格対応再生装置と呼 ぶ) によって再生可能となる。
ところが、 この図 1 9のように、 Aコーデヅクと Bコーデックの デ一夕が混在して記録されたディスクは、 Aコ一デックすなわち旧 規格にて記録がなされたものか、 Bコーデックすなわち新規格にて 記録がなされたのもであるのかを、 外見上で判別することはできな い。 したがって、 使用者はこのディスクを旧規格対応再生装置で再 生してしまう可能性がある。 このとき、 旧規格対応再生装置は、 上 記旧規格では、 前述の図 1 8のように常に値 0と定められていた 2 番地の内容をチェックせず、 当該ディスクに記録されている信号は 全て Aコ一デヅクによるものであると解釈して再生を行おうとする ため、 再生できなかったり、 乱雑で出鳕目な雑音を発生させたり し て、 使用者を混乱に陥れる危険性が高い。
本件出願人はこのような実情に鑑み、 日本特許出願公開平 1 0— 2 2 9 3 5の明細書及び図面において、 追加された規格 (新規格) で記録を行う場合には、 「記録されている信号の- 部は、 この規格 のみに対応した再生手段では再生できない。 」 との事実を知らせる 信号を旧規格 (Aコ一デック) に基づいて記録するとともに、 旧規 格対応再生装置で再生した場合には、 旧規格 ( Aコーデック) に基 づいて記録された信号以外には再生させないようにして装置の使用 者に混乱を招いたり、 雑音を発生させたりすることを防止する方法 を提案している。 また、 この日本特許出願公開平 1 0— 2 2 9 3 5 の明細書及び図面においては、 予め記録媒体に旧規格 (Aコ一デッ ク) によるメッセ一ジ信号を記録しておき、 新規格で記録を行う場 合には再生管理情報の内容を操作することで旧規格対応再生装置で 再生した場合には上記メッセージ信号が再生されるようにすること によって、 安価な新規格対応の記録機器で容易に記録ができるよう にする方法、 及び、 旧規格対応再生装置で再生した場合には新規格 で記録された部分に対応してメッセージ信号が再生されるようにす ることにより、 実際にどの曲が旧規格で記録されているのかを旧規 格対応再生装置の使用者に知らせるようにする方法に関しても提案 を行っている。 すなわち、 日本特許出願公開平 1 0— 2 2 9 3 5の 明細書及び図面においては、 旧規格対応再生装置自身が再生できな ぃデ一夕を誤って再生しないようにするとともに、 使用者に対して その記録媒体の内容を知らせるメッセージを伝えることによって旧 規格対応再生装置の使用者を混乱に陥れることを防止する方法を提 案している。
ここで、 図 2 0には、 日本特許出願公開平 1 0— 2 2 9 3 5の明 細書及び図面に記載の方法により、 ディスクに記録を行った例を示 している。 この図 2 0の例では、 新規格 (Bコ一デック) に関連す る管理データは旧規格 (Aコ一デック) に関連する管理デ一夕とは 分離されて記録されている。
すなわち図 2 0において、 例えば旧規格対応再生装置は、 先ず 0 番地の旧規格先頭データ番号と 1番地の旧規格最終データ番号 (こ れらは図 1 8の先頭データ番号及び最終デ一夕番号に対応する) を 読み取る。 この図 2 0の例では、 これら旧規格先頭データ番号と旧 規格最終デ一夕番号から、 このディスクに記録されているデ一夕が デ一夕番号 1から 1 までの 1個だけであると解釈できる。 次に、 そ の 1個のデ一夕がディスク上のどこに記録されているのかを知るた めに、 上記旧規格対応再生装置は、 旧規格に則って 5番地 (すなわ ちアドレス格納位置情報) の内容を調べて、 そのアドレス ' データ の入っている管理領域内の位置を知る。 次に、 上記旧規格対応再生 装置は、 その 5番地のアドレス格納位置情報に示される番地 ( 1 1 6番地) からの内容を調べることによって、 データ番号 0のオーデ ィォ信号が記録されている位置 ( 2 0 0 0 0 0番地) を知る。
ここで、 当該旧規格対応再生装置は、 1 1 8番地に記録されてい るコ一デック指定情報を無視するが、 日本特許出願公開平 1 0— 2 2 9 3 5の明細書及び図面に記載の方法では、 データ番号 0のォー ディォ信号は実際に Aコ一デックで符号化されているので問題はな い。 デ一夕番号 0のオーディオ信号の内容は 「このディスクの信号 を再生するためには、 Bコーデック対応再生機をご使用下さい。 」 というメッセージであり、 この信号が再生されることで、 旧規格対 応再生装置の使用者の混乱を回避できる。
一方、 旧規格と新規格の両方に対応した再生装置 (すなわち新規 格対応再生装置) がこのディスクを再生する場合には、 新規格に基 づいて、 先ず図 2 0の 2番地のモード指定情報の内容がチェックさ れる。 これにより当該新規格対応再生装置はこのディスクがモード 指定情報の値が 1の新規格 (Bコ一デック) に基づいて記録されて いる可能性があることを知る。 そこで、 当該新規格対応再生装置は、 モード指定情報が 1の場合の規定に基づいて、 0番地の旧規格先頭 データ番号と 1番地の旧規格最終データ番号を無視し、 3番地の新 規格先頭デ一夕番号と 4番地の新規格最終データ番号の内容から、 このディスクで再生すべきデ一夕はデ一夕番号 2から 5までの 4個 であると解釈して再生を行う。 すなわち、 この場合には、 旧規格対 応再生装置のためのメッセージ (デ一夕番号 0の信号) は再生され ない。 ただし、 このディスクの使用者への注意のために、 このメヅ セージを新規格対応再生装置でも再生することができ、 この場合に は、 3番地の新規格先頭データ番号の値を 1にしておけば良い。 以上の説明から明らかなように、 上述の日本特許出願公開平 1 0 - 2 2 9 3 5の明細書及び図面に記載の方法を用いれば、 新規格対 応再生装置でディスクに記録されている所望のオーディオ信号デ一 夕を再生できるばかりなく、 旧規格対応再生装置では、 ディスク再 生に関する注意のメ ッセージのみが再生され、 使用者に不要な混乱 を与えることを回避することができる。
しかしながら、 上述の方法では旧規格対応再生装置で再生できる のはメッセ一ジ信号であり、 本当に再生したい信号そのものではな い。
そこで、 本件出願人は、 日本特許出願平 9 一 4 2 5 1 4号の明細 書及び図面において、 以下に説明するようなことを行うことによつ て、 同一のディスク内に Aコ一デヅクと Bコ一デックによる信号が 記録されている場合において、 Aコ一デックによる信号については 旧規格対応再生装置でも再生できるようにするとともに、 新規格対 応再生装置を用いれば Aコーデックと Bコーデックの両方の信号を 再生できるようにしている。
また、 同一のディスク内に、 旧規格 (Aコ一デック) の信号と新 規格 (Bコーデック) の信号のように異なる規格の信号を同時に記 録するようにすると、 それぞれに対して割り当てられる記録領域が 減ることになるため、 記録再生される信号の品質 (オーディオ信号 の場合は音質) を維持することが困難になることも考えられるが、 日本特許出願平 9 - 4 2 5 1 4号の明細書及び図面に記載の技術で は、 この音質低下をも軽減可能にしてる。
これらのことを実現するために、 日本特許出願平 9 - 4 2 5 1 4 号の明細書及び図面に記載の技術では、 例えば図 1 3に示した記録 フォーマツ トゃ図 1 2にてモノラルの信号を記録する場合のように、 少ないチャネル数であれば長時間の記録再生が可能であるように予 め規定されている符号列に対して、 各フレームに割当可能な総ビッ ト数よりも少ないビッ ト数を上記少数チャネルに割り当てるように する。 言い換えれば、 例えば Aコーデヅクについてはフレーム内に 空き記録領域ができるように各フレームに割当可能な総ビッ ト数よ りも少ないビッ ト数にて符号化を行うようにし、 これにより得られ たフレーム内の空き記録領域に、 旧規格対応再生装置が再生しない チャネルの信号、 すなわち Bコ一デックの信号を記録するようにす ることによって、 長時間モードでの多チャネル記録再生 (Aコ一デ ヅクと Bコ一デヅクの両信号の記録再生) を可能にしている。 なお、 上記空き記録領域を作る方法としては、 上記割当ビッ ト数の調整の 他に、 上記 Aコ一デックの符号化方法で符号化するチャネルの帯域 を狭めるようにすることも可能である。
ここで、 上述したように、 1 フレームに割当可能なビッ ト数より も少ないビッ ト数で Aコーデックと Bコ一デックの信号を符号化し た場合は、 1フレームの全ビッ トを Aコーデックの符号化のために 割り当てた場合に比較して当該 Aコーデックの符号化のために割り 当てられるビッ ト数が減ってしまうため、 旧規格対応再生装置で再 生した場合の音質は低下してしまうことになる。 しかし、 日本特許 出願平 9 - 4 2 5 1 4号の明細書及び図面に記載の技術によれば、 Bコーデックの符号化方法として長時間の変換プロックを使用する など、 Aコ一デックの符号化方法よりも符号化効率の良い方法を採 用しているため、 Bコ一デックの符号化方法のために利用するビッ ト数が比較的少なくて済み、 Aコ一デックの符号化方法に利用でき るビッ ト数を比較的多く とれるので、 この音質低下の程度を軽微な ものに留めることが可能である。
すなわち、 日本特許出願平 9 - 4 2 5 1 4号の明細書及び図面に 記載の技術では、 旧規格対応再生装置が再生しないチャネルの信号 すなわち Bコ一デックの信号を、 当該旧規格対応再生装置が再生す るチャネルの信号 ( Aコ一デックの信号) よりも効率の良い方法で 符号化することにより、 上述のように多チャネル化することで旧規 格対応再生装置が再生する信号に割り当てられるビッ ト数を少なく したことによる音質の低下を、 最小限に抑えることが可能である。 実際に符号化効率を上げるための方法としては、 前述したように、 変換ブロックの長時間化、 可変長符号の採用、 トーン性の信号成分 の分離等、 種々の方法がある。 これらは全て上記技術に含まれるが、 以下では、 説明を簡単にするために、 このうち時間ブロック長の長 時間化、 可変長符号、 トーン性成分分離を採用した場合の例につい て取り上げる。
図 2 1には、 上述した日本特許出願平 9— 4 2 5 1 4号の明細書 及び図面に記載の技術を適用してできた符号列の一具体例を示す。 この図 2 1の例において、 一定のビッ ト数で構成される各フレー ムは、 それぞれ 2つの領域に分離されており、 図 2 1の領域 1ゃ領 域 3等には、 例えば (L + R ) / 2のチャネルの信号が上記 Aコー デックの符号化方法で符号化されて記録されており、 また図中斜線 が施されている領域 2や領域 4等には ( L— R ) / 2のチャネルの 信号が上記 Bコーデックの符号化方法で符号化されて記録されてい る。 上記領域 2や領域 4が上記空き記録領域に対応している。
なお、 上記 Aコ一デックの符号化方法は、 例えば前述した図 1 1 にて説明した符号化方法である。 一方、 Bコ一デックの符号化方法 は、 例えば Aコーデックの 2倍の変換ブロック長でスぺク トル信号 成分に変換した信号を図 1 5で示した符号化方法で符号化したもの を例に挙げることができる。 ただし、 このときの Bコ一デヅクの変 換ブロック長は Aコ一デックの変換プロック長の 2倍になっており、 このため、 その変換プロックに対応する符号は 2つのフレームに跨 つて記録されているとする。
また、 この図 2 1の例において、 上記 Aコーデックの符号化方法 では固定長の符号化方法を採用しており、 したがって当該 Aコーデ ックの符号化方法により得られた符号列 (以下、 Aコ一デック符号 列と呼ぶ) が使用するビッ ト数は容易に算出することができる。 こ のように Aコ一デック符号列が使用するビッ ト数を算出できれば、 Bコ一デックの符号化方法による符号列 (以下、 Bコ一デック符号 列と呼ぶ) の先頭位置をも容易に知ることができる。 なお、 別の方 法として、 Bコーデック符号列は、 フレームの最後部から開始する ことにしてもよい。 このようにしておく と、 Aコ一デックの符号化 方法に例えば可変長の符号化方法を採用した場合にも、 Bコーデッ ク符号列の先頭位置を容易に知ることができるようになる。 このよ うに Bコーデック符号列の先頭位置を容易に算出できるようにして おく と、 これら Aコーデックと Bコ一デックの両方に対応した再生 装置 (新規格対応再生装置) が、 両者の符号列を迅速に並行して処 理することができるようになり、 高速処理が可能となる。
また、 Aコーデックの符号化方法が図 1 1のように符号化ュニッ ト数の情報を含むものである場合において、 前述したように、 他チ ャネルの信号を記録するための領域 (空き記録領域) を確保するた めに当該 Aコーデックの符号化方法で符号化するチャネルの帯域を 狭めるようにした場合、 例えば高域側の量子化精度デ一夕、 正規化 係数デ一夕を省略することができて都合が良い。 この場合において も、 Aコーデックの符号化方法での符号化に使用されたビッ ト数は 容易に計算することが可能である。
図 2 1の例においては、 上述したように、 (L + R ) / 2のチヤ ネルの信号を Aコ一デック符号列として記録し、 また (L一 R ) / 2のチヤネルの信号を Bコ一デック符号列として記録しているため、 例えば Aコ一デックの信号が記録された領域のみを再生して復号す れば (L + R ) / 2のモノラルの信号再生が可能となり、 一方、 A コーデックの信号が記録された領域と Bコ一デックの信号が記録さ れた領域の両者を再生して復号し、 それらの和を計算すれば R
(右) チャネルの信号が生成でき、 差を計算すれば L (左) チヤネ ルの信号を生成でき、 ステレオでの再生が可能となる。
この図 2 1のような符号列が記録された記録媒体に対して、 上記 旧規格対応再生装置は、 Bコーデックの符号化方法で符号化されて いる領域については無視することになるので、 上記の符号列が記録 された記録媒体からモノラル信号を再生することができる。 一方、 この図 2 1に示した符号列が記録された記録媒体に対して、 Aコー デックの符号の復号回路と Bコーデックの符号の復号回路を搭載し た再生装置 (新規格対応再生装置) は、 ステレオ信号を再生できる ようにすることが可能である。 このように、 旧規格対応再生装置が 既に普及してしまった後に、 新規格対応再生装置がステレオ再生す るための規格として図 2 1に示すような符号化方法を導入したとし ても、 旧規格対応再生装置がモノラル信号の再生をすることは可能 となる。 なお、 上記 Aコーデックの符号を復号するための復号回路 は、 比較的小規模のハ一ドウエアで実現できるため、 そのような復 号回路を搭載した再生装置は比較的安価に製造することができる。 次に、 図 2 2には、 上述した図 2 1の符号列を生成する符号化装 置の具体的な構成を示す。
この図 2 2において、 Lチャネルの入力信号 1 9 0 a及び Rチヤ ネルの入力信号 1 9 0 bは、 チャネル変換回路 1 1 9 aによって、 ( L + R ) / 2に相当する信号 1 9 0 c及び (L— R ) / 2に相当 する信号 1 9 0 dに変換される。 (L + R ) / 2信号 1 9 0 cは第 1の符号化回路 1 1 9 bに、 (L一 R ) / 2信号 1 9 0 dは第 2の 符号化回路 1 1 9 cに送られる。
上記第 1の符号化回路 1 1 9 bは図 6の構成を有する図 4の信号 成分符号化回路 1 1 1 bに相当し、 上記 Aコーデックの符号化方法 が適用されるものである。 一方、 上記第 2の符号化回路 1 1 9 cは、 上記第 1の符号化回路 1 1 9 bの倍の変換プロック長を持ち、 図 1 6の構成を有する図 4の信号成分符号化回路 1 1 1 bに相当し、 上 記 Bコ一デックの符号化方法が適用されるものである。 これら第 1 の符号化回路 1 1 9 bの Aコーデック符号列 1 9 0 eと第 2の符号 化回路 1 1 9 cの Bコ一デック符号列 1 9 0 f は、 共に符号列生成 回路 1 1 9 dに供給される。
この符号列生成回路 1 1 9 dは、 符号列 1 9 0 e及び 1 9 0 f か ら、 図 2 1に示した符号列を生成し、 出力符号列信号 1 9 0 gとし て出力する。
図 2 3には、 図 2 2の符号列生成回路 1 1 9 dが図 2 1の符号列 を生成する際の処理の流れを示す。
この図 2 3において、 ステップ S 1 0 1では、 フレーム番号 Fが 1に初期化され、 ステップ S 1 0 2では第 1の符号化回路 1 1 9 b からの Aコ一デック符号列 1 9 0 eを受信する。 ステップ S 1 0 3 では、 フレーム番号 Fが偶数か否かの判断を行い、 偶数でないとき にはステップ S 1 0 6に、 偶数であるときにはステップ S 1 0 4に 処理を進める。
ステップ S 1 0 4では、 第 2の符号化回路 1 1 9 cからの Bコ一 デック符号列 1 9 0 f を受信する。 次のステップ S 1 0 5では、 符 号列 1 9 0 eと 1 9 0 f とから、 図 2 1の符号列を合成する。
ステップ S 1 0 6では、 全てのフレームについての処理が終了し たか否かの判断を行い、 終了したときは当該図 2 3の処理を終わり、 終了していないときには、 ステップ S 1 0 7にてフレーム番号 Fを 1インクリメン ト してステップ S 1 0 2に戻り、 上述した処理を繰 り返す。
なお、 この図 2 3の処理において、 フレーム番号 Fは 1から始ま るが、 Bコーデックの符号化方法の処理単位は Aコ一デックの符号 化方法の倍の 2フレームが単位となるので、 符号列の生成も 2フレ —ム毎に行われる。
次に、 図 2 4には、 上述した本発明の符号化方法を用いて生成さ れた図 2 1の符号列を復号する新規格対応再生装置の復号化装置の 具体的な構成を示す。
この図 24において、 図 2 1の符号列である入力符号列 200 a は、 符号列分離回路 120 aによって Aコ一デック符号列 200 b と Bコ一デック符号列 200 cとに分離される。 上記 Aコ一デヅク 符号列 200 bは第 1の復号化回路 1 20 bに、 Bコーデック符号 列 200 cは第 2の復号化回路 120 cに送られる。
第 1の復号化回路 120 bは図 9の構成を有する図 7の信号成分 復号回路 1 14 bに相当し、 Aコ一デックの符号を復号するもので ある。 一方、 第 2の復号化回路 1 20 cは第 2の復号化回路 120 bの倍の変換プロック長を持ち、 図 1 7の構成を有する図 7の信号 成分復号回路 1 14 bに相当し、 Bコ一デックの符号を復号するも のである。 これら第 1の復号化回路 120 bにより復号された信号 200 dは (L+R) /2信号 190 cに相当し、 第 2の復号化回 路 120 cにより復号された信号 200 eは ( L— R) /2信号 1 90 dに相当する。
ここで、 (L+R) /2信号 200 dと (L— R) /2信号 20 0 eとでは、 それぞれ変換ブロック長が異なるため、 その処理遅延 時間には差がある。 このため、 第 1の復号化回路 120 からの (L + R) / 2信号 200 dはメモリ回路 120 dに、 第 2の復号 化回路 120 cからの (L— R) /2信号 200 eはメモリ回路 1 20 eに供給され、 これらメモリ回路 1 20 dと 120 eによって、 上記処理遅延時間差が吸収される。 これらメモリ回路 120 dと 1 20 eをそれぞれ経由した (L + R) / 2信号 200 f及び (L— ) Z 2信号 200 gは、 チャネル変換回路 120 f に送られる。 このチャネル変換回路 1 20 f は、 ( L + R) / 2信号 200 f と (L— R) /2信号 200 gを加算することで Lチャネルの信号 200 hを生成し、 また、 (L+R) /2信号 200 f から (L— R) / 2信号 200 gを減算することで Rチャネルの信号 200 i を生成し、 これら Lチャネルと Rチャネルの信号をそれぞれ出力す る。
図 25には、 図 24の符号列分離回路 120 aが図 2 1の符号列 を分離する際の処理の流れを示す。
この図 25において、 ステツプ S 20 1では、 フレーム番号 Fが 1に初期化され、 ステップ S 202では、 第 1の復号化回路 120 bに送るための Aコ一デック符号列の分離及び送信を行う。 ステツ プ S 203では、 フレーム番号 Fが奇数か否かの判断を行い、 奇数 でないときにはステップ S 205に、 奇数であるときにはステップ S 204に処理を進める。
ステップ S 204では、 第 2の復号化回路 120 cに送るための Bコーデック符号列の分離及び送信を行う。
ステップ S 205では、 全てのフレ一ムについての処理が終了し たか否かの判断を行い、 終了したときは当該図 25の処理を終わり、 終了していないときには、 ステップ S 206にてフレーム番号 Fを 1インクリメン トしてステップ S 202に戻り、 上述した処理を繰 り返す。
なお、 この図 25の処理において、 フレーム番号 Fは 1から始ま るが、 Bコーデックの符号化方法の処理単位は Aコーデックの符号 化方法の倍の 2フレームが単位となるので、 符号列の分離も 2フレ —ム毎に行われる。 以上の説明では、 各フレームの空き記録領域に追加のチャネル信 号 (Bコ一デックの信号) のみを記録する例について述べたが、 前 述の従来に技術にて述べたように、 ステレオ信号の種類によっては 符号化により発生する量子化雑音が問題を起こすことがある。 以下、 この問題を解決する本発明の実施の形態の方法について説 明する。
図 2 6には、 当該本発明の方法を適用してできた実施の形態の符 号列の一具体例を示す。 この図 2 6の例は、 旧規格では (L + R ) / 2の 1チャネルの信号 (音響信号) の記録だけが可能であつたの に対し、 空き記録領域にチャネル構成データと追加チャネルの信号 を記録することによって、 新規格では ( L + R ) / 2 と追加チヤネ ルを組み合わせた 2チャネルの信号の記録も可能にしたフォーマツ トの例を示したものである。
ここで (L + R ) / 2に相当するチャネルを Aチャネル、 追加チ ャネルに相当するチャネルを Bチャネルと表すことにする。 実際に 2チャネルの信号が記録されているのは Aチャネルの信号の後にチ ャネル構成デ一夕を記録するスペースが確保され、 なおかつ、 その チャネル構成デ一夕が 0以外の値になっている場合である。 Bチヤ ネルの信号は (L— R ) / 2、 L、 Rの何れかの信号であり、 チヤ ネル構成データの値はこれらの何れが記録されているのかを示して いる。 この例ではチャネル構成デ一夕の値が 1の場合は (L + R ) / 2、 チャネル構成データの値が 2の場合は L、 チャネル構成デー 夕の値が 3の場合は Rの信号がそれぞれ記録されるようになつてい る。 また、 チャネル構成デ一夕を値 0に設定することにより、 ュ一 ザに Aチャネル若しくは Bチャネルの何れか所望の音響信号のみを 聞かせることが可能になる。
なお、 チャネル構成データを値 0に設定した場合には、 フレーム に割り当てられたビッ ト数を全て使うことなく Aチャネル若しくは Bチャネルのみを記録することも可能である。
図 2 7には、 図 2 6に示した符号列を生成する本発明の実施の形 態の符号化装置の構成例を示す。
この図 2 7において、 入力信号 2 1 0 aは Lチャネルと Rチヤネ ルの信号であり、 この入力信号 2 1 0 aは、 チャネル変換回路 1 2 1 aによって、 Aチャネルすなわち (L + R ) / 2に相当する信号 2 1 0 b及び Bチャネルに相当する信号 2 1 0 cに変換される。 A チャネル信号 2 1 0 bは第 1の符号化回路 1 2 1 bに、 Bチャネル 信号 2 1 0 cは第 2の符号化回路 1 2 1 cに送られる。
第 1の符号化回路 1 2 1 bでは Aチャネルの信号 2 1 0 bを符号 ィ匕し、 第 2の符号化回路 1 2 1 cでは Bチャネルの信号 2 1 0 cを 符号化する。 これら第 1の符号化回路 1 2 1 bからの Aチャネル符 号列 2 1 0 dと第 2の符号化回路 1 2 1 cからの Bチャネル符号列 2 1 0 eは、 共に符号列生成回路 1 2 1 dに供給される。
この符号列生成回路 1 2 1 dは、 符号列 2 1 0 d及び 2 1 0 eか ら、 図 2 6に示した符号列を生成し、 出力符号列信号 2 1 0 hとし て出力する。
ここで、 当該図 2 7の構成には、 制御回路 1 2 1 eが設置されて いる。 この制御回路 1 2 1 eは、 符号化のモードを指定する入力信 号 2 1 0 f と入力信号 2 1 0 aに応じて、 チャネル変換回路 1 2 1 aから符号列生成回路 1 2 1 dまでの構成に対し、 後述する図 2 8 及び図 2 9のフローチャートのようにして図 2 6の符号列を生成す るように制御する制御信号 2 1 0 gを生成し、 各構成要素に送る。 制御信号 2 10 gには、 ステレオモード、 モノラルモードのどちら で符号化するかを指示する情報と Bチャネルをどのモードで符号化 するかを指示する情報、 すなわち (L— R) /2, R, Lの何れの 信号を符号化するのかを指示する情報が含まれる。
図 28には、 図 27の構成において、 制御回路 1 2 1 eの処理の 流れを示す。
ここでの処理はフレーム単位で行われる。 先ず、 ステップ S 30 1では Aチャネルに ( L + R ) / 2を設定し、 ステップ S 302で は図 27の入力信号 2 1 O f によりステレオモードか否かの判定を 行い、 ステレオモードでない場合は処理を終了する。 ステレオモ一 ドの場合はステツプ S 303に進む。 このステップ S 303では、 図 27の入力信号 2 10 aのフレーム毎の信号エネルギを各チヤネ ル每に求め、 Lチャネルのエネルギを E 1、 Rチャネルのエネルギ を E rとする。 ステップ S 304ではエネルギ E 1と E rを比較し、 E 1と E rの比 (E 1/E r ) が例えば 30 d Bより小さい、 すな わち Rチャネルのエネルギが Lチャネルのエネルギに対して十分小 さければステツプ S 305に進み、 逆に 30 d B以上であればステ ップ S 308で Bチャネルに Rチヤネルを設定する。 ステップ S 3 05では同様にエネルギ E 1と E rを比較し、 Erと E 1の比 (E r /E l) が 30 d Bより小さい、 すなわち Lチャネルのエネルギが Rチャネルのエネルギに対して十分小さければ、 ステヅプ S 306 で Bチャネルに (L— R) / 2を設定し、 逆に大きければステップ S 307で Bチャネルに Lチャネルを設定する。 ここで設定された チャネル情報は、 図 27の制御信号 2 1 0 gとして出力される。 こ の例では L, Rチャネルのエネルギ比を 3 0 d Bという値と比較す ることにより Bチャネルのチャネル選択を行うようにしているが、 エネルギの代わりに信号の振幅比等で比較しても良いし、 3 0 d B という値も量子化雑音のレベルなどに応じて変更しても良く、 例え ば 1 0 d Bなどの値としても良い。
図 2 9には、 図 2 7の構成において、 制御信号 2 1 0 gに基づい て図 2 6に示したような符号列を生成する際の処理の流れを示す。 なお、 この図 2 9の例では、 各フレーム当たり例えば 2 0 0バイ ト 分が割り当てられているとする。
この囟 2 9において、 ステップ S 4 0 1では、 記録再生を上述の ようにステレオにて行うか否かを判断する。 図 2 7のモ一ド指定信 号 2 1 0 が、 ステレオモードを示しているときにはステップ S 4 0 2以降の処理に、 ステレオモードでない方、 すなわちモノラルモ ―ドが選ばれたときにはス亍、ソプ S 4 0 5の処理に移行する。
この図 2 9において、 ステップ S 4 0 1にてステレオモードでの 符号化が指示された場合のステツプ S 4 0 2では、 1 5 0バイ トを 使用して、 上記 Aチャネルすなわち (L + R ) / 2の信号を符号化 する。 次のステップ S 4 0 3では、 1バイ トを使用して上記チヤネ ル構成データを生成して符号化する。 その後、 ステップ S 4 0 4で は、 4 9バイ トを使用して上記 Bチャネルの信号を符号化する。 ここで、 チャネル構成デ一夕は、 Bチャネルが ( L— R ) / 2に 設定されている場合には 1、 Lチャネルが設定されている場合には 2、 Rチャネルに設定されている場合には 3がそれぞれ符号化され る。
一方、 ステツプ S 4 0 1にてモノラルモードが選ばれた場合のス テヅプ S 40 5では、 2 0 0バイ トを使用して、 Aチャネルすなわ ち (L + R) /2の信号を符号化する。
次に図 30には、 図 2 6に示したような符号列を復号する本実施 の形態の復号化装置の一具体例を示す。
この図 30において、 図 2 6の符号列である入力符号列 2 2 0 a は、 符号列分離回路 1 2 2 aによって Aチャネルの符号列 2 20 b と Bチャネルの符号列 2 20 cとに分離される。 上記 Aチャネルの 符号列 22 0 bは Aチャネル符号列 2 1 0 dに相当し、 上記 Bチヤ ネルの符号列 2 2 0 cは上記 Bチャネルの符号列 2 1 0 eに相当す る。 上記 Aチャネルの符号列 2 2 0 bは第 1の復号化回路 1 22 b に、 上記 Bチャネルの符号列 2 2 0 cは第 2の復号化回路 1 2 2 c に送られる。 第 1の復号化回路 1 2 2 bは上記 Aチャネルの符号列 2 2 0 bを復号し、 第 2の復号化回路 1 2 2 cは上記 Bチャネルの 符号列 2 2 0 cを復号する。
ここで、 第 1の復号化回路 1 2 2 bにより復号された Aチャネル 信号 2 20 dと第 2の復号化回路 1 2 2 cにより復号された Bチヤ ネル信号 2 2 0 eとでは、 それぞれバイ ト長が異なるため、 その処 理遅延時間には差がある。 このため、 第 1の復号化回路 1 2 2 か らの Aチャネル信号 2 2 0 dはメモリ回路 1 2 2 dに、 第 2の復号 化回路 1 22 cからの Bチャネル信号 2 20 eはメモリ回路 1 22 eに供給され、 これらメモリ回路 1 2 2 dと 1 2 2 eによって、 上 記処理遅延時間差が吸収される。 これらメモリ回路 1 2 2 dと 1 2 2 eをそれぞれ経由した Aチャネル信号 2 2 0 f 及び Bチャネル信 号 2 2 0 gは、 チャネル変換回路 1 2 2 f に送られる。
このチャネル変換回路 1 2 2 f は、 上記 Aチャネルすなわち (L + R ) / 2信号 2 2 0 f と Bチャネル信号 2 2 0 gから音響信号を 生成してそれぞれ出力する。
当該図 3 0の構成では、 符号列分解回路 1 2 2 aにて入力符号列 2 2 0 aから上記チャネル構成データも分離される。 符号列分解回 路 1 2 2 aでは、 ステレオモードの場合には、 上記チャネル分離デ 一夕を分離し、 符号列分離化 1 2 2 aからチャネル変換回路 1 2 2 f までの構成にて上述のような復号処理動作を行うための制御信号 2 2 O hを生成し、 各構成要素に送る。 一方、 モノラルモードの場 合には、 符号列分離化 1 2 2 aから Aチャネル符号 2 2 0 bのみが 出力され、 第 1の復号化回路 1 2 2 b以降の構成にてモノラルの信 号が再生される。
次に、 図 3 1には、 図 2 6に示した符号列を復号する図 3 0の構 成の処理の流れを示す。
この図 3 1において、 ステップ S 5 0 1では、 入力符号列 2 2 0 aの第 1の符号列すなわち上記 Aチャネル符号列 2 2 0 bのバイ ト 数 L 1を計算により求める。 ステップ S 5 0 2では、 このバイ ト数 L 1が 2 0 0より小さいか否かの判断が行われる。 L 1が 2 0 0よ り小さいときにはステップ S 5 0 3の以降の処理に進み、 小さくな い ( L 1 = 2 0 0 ) ときにはステツプ S 5 0 5の処理に進む。 ここ で、 ステップ S 5 0 2は、 モノラルモードであるかステレオモード であるかの判定を行っている。 すなわち、 ステップ S 5 0 2は、 旧 規格で記録されているか、 新規格で記録されているかの判定を、 符 号列のバイ ト数に基づいて行う。 このように符号列のバイ ト数で判 別することにより、 フレーム毎若しくは数フレーム毎に、 モードを 変更することが可能になる。 なお、 モノラルモードとステレオモードの判別は、 図 1 9に示し たように、 管理データ内にモード指定情報として埋め込むことも可 能である。
ステップ S 5 0 3では、 チャネル構成データの値が 0か否かの判 断を行い、 0であるときにはステップ S 5 0 4に、 0でないときに はステップ S 5 0 5に進む。
ステップ S 5 0 4では、 Aチャネルと Bチャネルの信号を復号化 させるための制御信号 2 2 0 hを生成して各構成要素に送り、 これ により、 上述のように Aチャネル符号列 2 2 0 bが第 1の復号化回 路 1 2 2 bにて復号され、 Bチャネル符号列 2 2 0 cが第 2の復号 化回路 1 2 2 cにて復号される。 また、 ステップ S 5 0 5ではモノ ラルモードであるため Aチヤネル信号を復号化させるための制御信 号 2 2 0 hを生成して各構成要素に送り、 上述のように Aチャネル 符号列 2 2 0 bのみが第 1の復号化回路 1 2 2 bにて復号される。 図 3 2には図 3 0の符号列分離回路 1 2 2 aが復号化のステレオ モードのときのチヤネル設定を決定する方法の処理例を示す。
この図 3 2において、 先ずステップ S 6 0 1において、 チャネル 構成デ一夕が 0か否かの判断を行う。 チャネル構成データが 0の場 合はステップ S 6 0 2に進み、 このステップ S 6 0 2にて Lチヤネ ル、 Rチャネルと共に Aチャネルを出力するものとして、 図 3 0の 制御信号 2 2 0 hを生成する。
一方、 ステップ S 6 0 1にてチヤネル構成データが 0でないと判 断された場合には、 ステップ S 6 0 3に進む。 このステップ S 6 0 3ではチャネル構成データが 1か否かの判断を行い、 当該チャネル 構成デ一夕が 1であると判断した場合にはステップ S 6 0 4に進む c ステップ S 6 0 4では、 Lチャネルとして ( A + B ) 、 Rチャネル として (A— B ) のチャネルをそれぞれ出力するものとして、 図 3 0の制御信号 2 2 0 hを生成する。
またステップ S 6 0 3にてチヤネル構成データが 1でないと判断 した場合は、 ステップ S 6 0 5に進む。 このステップ S 6 0 5では、 チャネル構成データが 2であるか否かの判断を行う。 このステツプ S 6 0 5においてチャネル構成デ一夕が 2であると判断した場合に は、 ステップ S 6 0 6に進み、 このステップ S 6 0 6で Lチャネル として Bチャネル、 Rチャネルとして ( 2 A— B ) のチャネルをそ れぞれ出力するものとして図 3 0の制御信号 2 2 0 hを生成する。 ステップ S 6 0 5にてチヤネル構成データが 2でないと判断した 場合は、 ステップ S 6 0 7に進む。 このステップ S 6 0 7では、 チ ャネル構成デ一夕が 3か否かの判断を行う。 このステツプ S 6 0 7 において、 チャネル構成データが 3であると判断した場合には、 ス テツプ S 6 0 8に進み、 このステップ S 6 0 8で Lチャネルとして ( 2 A - B ) 、 : Rチャネルとして Bチャネルをそれぞれ出力するも のとして図 3 0の制御信号 2 2 0 hを生成する。 ステップ S 6 0 7 にてチャネル構成デ一夕が 3でないと判断した場合は処理を終了す る。
上述のようにして生成された制御信号 2 2 0 hがチャネル変換回 路 1 2 2 f に送られることで、 このチャネル変換回路 1 2 2 から はステレオモードのときには L , Rチャネルの信号が、 モノラルモ ードのときにはモノラルの信号が出力されることになる。 すなわち、 チャネル構成データが 0の場合は、 上述のように Lチャネル、 Rチ ャネルと共に Aチャネルの信号を出力することでモノラルの信号が 得られる。 チャネル構成デ一夕が 1の場合は、 上述のように (A + B ) にて Lチャネルの信号が得られ、 (A—B) にて Rチャネルの 信号が得られる。 また、 チャネル構成デ一夕が 2の場合には、 Bチ ャネルから Lチャネルの信号が得られ、 ( 2 A— B) にて Rチヤネ ルの信号が得られる。 さらに、 チャネル構成デ一夕が 3である場合 には、 ( 2 A— B) にて Lチャネルの信号が得られ、 Bチャネルか ら Rチヤネルの信号が得られる。
本発明実施の形態の方法を用いて、 前述した図 1及び図 2と同様 に示す図 3 3 A , 3 3 Bのようなステレオ信号を処理する例につい て説明する。
この図 3 3 A, 3 3 Bは、 ステレオ信号の左チャネル成分 (L) 及びステレオ信号の右チャネル成分 (R) の時間軸波形をそれぞれ 表し、 図 3 3 C, 3 3 Dは L, Rのチャネル成分を (L+R) /2 二 Aチャネルとし、 例えば R = Bチャネルにチャネル変換した信号 の時間軸波形をそれぞれ表している。
また、 図 3 3 E, 3 3 Fは、 上記 ( L + R) /2二 Aチャネル, R二 Bチャネルの信号をそれぞれ本発明実施の形態の上述した高能 率符号化方法により符号化して復号化する際に生じる量子化雑音の 様子を表し、 図中 N 1と N 2は (L +R) Z2 =Aチャネル, R = Bチャネルの信号を符号化する際に生じる量子化雑音成分の時間軸 波形をそれぞれ表している。 ここで、 (L + R) /2 =Aチャネル を符号化及び復号化した後の信号は A +N 1、 R=Bチャネルを符 号化及び復号化した後の信号は B + N 2でそれぞれ表すことができ る。
図 33 G, 3 3 Hは (A + N 1 ) , (B +N 2 ) の信号波形から ステレオ信号の L , Rチャネルを分離した様子を示している。 Lチ ャネルについては ( 2 A— B ) により生成し、 Rチャネルについて は Bチャネルそのものである。
すなわち、 この図 3 3に示したようなステレオ信号を前述した従 来技術で処理すると、 既に述べたように符号化により生じる量子化 雑音が問題となるが、 本実施の形態の場合には、 図 3 3 C , 3 3 D に示すように、 A二 ( L + R ) / 2とし、 例えば R = Bのチャネル とし、 Rチャネルは Bチャネルとして独立して符号化処理すること により、 この Rチャネルは他チャネルで生じる量子化雑音に影響さ れることがないため、 良好な音質で再生することができる。 Lチヤ ネルについては Rチヤネルの信号レベルが小さいため他チャネルで 生じる量子化雑音に影響されることがないため問題は生じない。 一 般にこのような方法で符号化を行う場合、 Bチャネルに使用する情 報を少なくする場合が多いが、 本発明実施の形態による方法では B チャネルとして信号レベルが小さいものを選ぶようにチヤネル変換 を行うため、 Bチャネルを少ない情報で符号化しても音質劣化は殆 ど生じない。
このように旧規格対応再生装置では少数のチャネル再生が可能で、 新規格対応再生装置ではより多数のチャネル再生が可能であり、 且 つチャネル変換を最適に行い音質劣化を最小限に止めるような符号 化方法、 復号化方法、 及び符号化された記録した媒体等は全て本発 明の方法に含まれる。
また、 ここでは、 第 1の符号化方式として全体を 2つの帯域に分 割した後、 スぺク トル変換して、 そのスぺク トル係数を正規化及び 量子化して固定長で符号化する方式を採用し、 第 2の符号化方式と して全体を 2つの帯域に分割した後、 スペク トル変換して、 そのス ぺク トル係数を トーン成分とその他の成分に分離した後、 各々を正 規化及び量子化して可変長で符号化する方式を採用したが、 これら の符号化方式としては、 その他にも様々なものが考えられ、 例えば、 第 1の符号化方式として、 帯域分割してから帯域幅に応じて間引い た時系列信号を正規化及び量子化して固定長で符号化する方式を採 用し、 第 2の符号化方式として、 全帯域の時系列信号をスペク トル 変換して、 そのスぺク トル係数を正規化及び量子化して符号化する 方式を採用するようにしても良い。 ただし、 第 2の符号化方式とし ては、 既に述べたようにできる限り符号化効率の良い手法を採用す ることによって、 旧規格対応再生装置が再生した場合の音質低下を 軽微なものにすることが望ましい。
さらに、 オーディォ信号を用いた場合を例にとって説明を行った が、 本発明の方法は旧規格対応再生装置が再生する信号が例えば画 像信号である場合にも適用可能である。 すなわち、 例えば、 旧規格 の符号列として輝度信号が符号化されている場合に本発明の方法を 用いて色差信号、 色相信号を符号列に加えることが可能である。 本 発明におけるチャネルとは映像の場合の輝度信号、 色差信号、 色相 信号を含んだものである。
なお以上、 符号化されたビッ トス ト リームを記録媒体に記録する 場合について説明を行ったが、 本発明の方法はビッ トス ト リ一ムを 伝送する場合にも適用可能である。 また、 記録媒体としても、 ラン ダムアクセス可能なものであれば、 光ディスク等の記録媒体に限ら ず、 半導体メモリ等も使用可能であることは言うまでもない。 産業上の利用可能性 以上の説明からも明らかなように、 本発明の信号符号化方法及び 装置においては、 複数の入力チャネルの信号から生成した第 1の信 号を符号化し、 一部のチャネルと他のチャネルの信号レベルに基づ いて、 一部のチャネルの信号のみからなる第 2の信号或いは複数の 入力チャネルの信号から生成した第 2の信号を符号化し、 第 2の信 号として何れを選択したかを示す選択情報をも符号化し、 第 1、 第 2の信号の符号化方式を異なる符号化方式にすることにより、 例え ば、 旧規格対応再生装置による再生を可能にしながら新規格拡張に よって多チャネル化を実現する符号化 ·復号化を行う場合に、 符号 化により生じる量子化雑音を最小限に抑え、 音質劣化を軽減可能と なる。
また、 本発明の信号復号化方法及び装置においては、 複数のチヤ ネルの信号から生成されて符号化された第 1の符号化信号と、 一部 のチャネルの信号のみからなる第 2の信号或いは複数のチャネルの 信号から生成した第 2の信号との何れかを選折して符号化した第 2 の符号化信号とを含む符号列を復号化するとともに、 符号列から第 2の信号の選択状況を特定する選択情報を取り出して復号化を制御 し、 復号化の際には第 1、 第 2の符号化信号をそれぞれ異なる復号 化方式にて復号化することにより、 例えば、 旧規格対応再生装置に よる再生が可能であり且つ新規格で拡張された信号をも再生でき、 符号化及び復号化により生じる量子化雑音を最小限に抑え、 音質劣 化を軽減可能となる。
さらに本発明の信号記録媒体においては、 複数の入力チャネルの 信号から生成された第 1の信号を符号化した第 1の符号化信号と、 一部のチャネルの信号のみからなる第 2の信号或いは複数の入力チ ャネルの信号から生成した第 2の信号の何れかを選択して符号化し た第 2の符号化信号と、 それらの符号化パラメ一夕と、 第 2の信号 の選択情報を有する符号列を記録してなるとともに、 第 1、 第 2の 信号の符号化方式が異なることにより、 例えば、 旧規格対応再生装 置による再生が可能になり且つ新規格で拡張された信号をも再生で き、 符号化及び復号化により生じる量子化雑音を最小限に抑え、 音 質劣化を軽減可能となる。

Claims

請求の範囲
1 . 信号を符号化する符号化方法において、
複数の入力チャネルの信号から第 1の信号を生成し、
上記複数の入力チャネルのうちの一部のチャネルと他のチャネル の信号レベルを求め、
上記信号レベルに基づいて、 上記一部のチャネルの信号のみから なる第 2の信号と上記複数の入力チャネルの信号から生成した第 2 の信号との何れかを選択し、
上記第 1の信号及び上記選択した第 2の信号を符号化する符号化 方法。
2 . 上記一部のチャネルの信号のみからなる第 2の信号又は上記複 数の入力チャネルの信号から生成した第 2の信号の何れを選択した かを示す選択情報を生成し、 符号化することを特徴とする請求の範 囲第 1項記載の符号化方法。
3 . 上記一部のチャネルと他のチャネルの信号レベルの比が所定の 閾値より大きいとき、 上記一部のチャネルの信号のみからなる第 2 の信号を選択することを特徴とする請求の範囲第 1項記載の符号化 方法。
4 . 上記一部のチャネルと他のチャネルの信号レベルの比が所定の 閾値より小さいとき、 上記複数の入力チャネルの信号から生成した 第 2の信号を選択することを特徴とする請求の範囲第 1項記載の符 号化方法。
5 . 上記信号レベルは、 信号のエネルギであることを特徴とする請 求の範囲第 1項記載の符号化方法。
6 . 上記信号レベルは、 信号の振幅であることを特徴とする請求の 範囲第 1項記載の符号化方法。
7 . 上記複数の入力チャネルの信号は、 音響信号の右チャネルの信 号と左チャネルの信号からなることを特徴とする請求の範囲第 1項 記載の符号化方法。
8 . 上記第 1の信号は、 音響信号の右チャネルの信号と左チャネル の信号の加算によって求められた信号であり、
上記複数の入力チャネルの信号から生成した第 2の信号は、 音響 信号の右チャネルの信号と左チヤネルの信号の減算によって求めら れた信号であることを特徴とする請求の範囲第 7項記載の符号化方 法。
9 . 上記第 2の信号の選択を所定のフレーム毎に行うことを特徴と する請求の範囲第 1項記載の符号化方法。
1 0 . 上記第 1の信号を符号化する際の符号化方式と、 上記第 2の 信号を符号化する際の符号化方式とは、 異なる符号化方式であるこ とを特徴とする請求の範囲第 1項記載の符号化方法。
1 1 . 時系列である第 1及び第 2の信号を所定時間幅の変換ブロッ ク毎にスぺク トル信号成分に変換して符号化することを特徴とする 請求の範囲第 1 0項記載の符号化方法。
1 2 . 上記第 2の信号に対する上記変換ブロックの大きさを、 上記 第 1の信号に対する変換プロックの大きさよりも大きく とることを 特徴とする請求の範囲第 1 1項記載の符号化方法。
1 3 . 上記第 2の信号の上記変换ブロックのスぺク トル信号成分を、 所定のフレームの複数分に跨って符号化することを特徴とする請求 の範囲第 1 1項記載の符号化方法。
1 4 . 上記第 2の信号を可変長符号化することを特徴とする請求の 範囲第 1 0項記載の符号化方法。
1 5 . 上記第 2の信号を、 信号エネルギが集中する トーン成分とそ の他の非トーン成分とに分離して符号化することを特徴とする請求 の範囲第 1 0項記載の符号化方法。
1 6 . 上記第 1の信号の符号化に割り当てられるビッ トレ一卜と上 記第 2の信号の符号化に割り当てられるビッ トレートとは異なるこ とを特徴とする請求の範囲第 1 0項記載の符号化方法。
1 7 . 信号を符号化する符号化装置において、
複数の入力チャネルの信号から第 1の信号を生成する第 1の信号 生成手段と、
上記複数の入力チャネルのうちの一部のチャネルと他のチャネル の信号レベルに基づいて、 上記一部のチャネルの信号のみからなる 第 2の信号と上記複数の入力チャネルの信号から生成した第 2の信 号との何れかを選択する第 2の信号生成手段と、
上記第 1の信号及び上記選択した第 2の信号を符号化する符号化 手段とを具備する符号化装置。
1 8 . 上記第 2の信号生成手段は、 上記一部のチャネルの信号のみ からなる第 2の信号又は上記複数の入力チャネルの信号から生成し た第 2の信号の何れを選択したかを示す選択情報を生成し、 上記符号化手段は、 上記選択した第 2の信号と共に上記選択情報 を符号化することを特徴とする請求の範囲第 1 7項記載の符号化装
1 9 . 上記第 2の信号生成手段は、 上記一部のチャネルと他のチヤ ネルの信号レベルの比が所定の閾値より大きいとき、 上記一部のチ ャネルの信号のみからなる第 2の信号を選択することを特徴とする 請求の範囲第 1 7項記載の符号化装置。
2 0 . 上記第 2の信号生成手段は、 上記一部のチャネルと他のチヤ ネルの信号レベルの比が所定の閾値より小さいとき、 上記複数の入 力チャネルの信号から生成した第 2の信号を選択することを特徴と する請求の範囲第 1 7項記載の符号化装置。
2 1 . 上記第 2の信号生成手段は、 上記信号レベルとして信号のェ ネルギを求めることを特徴とする請求の範囲第 1 7項記載の符号化 装置。
2 2 . 上記第 2の信号生成手段は、 上記信号レベルとして信号の振 幅を求めることを特徴とする請求の範囲第 1 7項記載の符号化装置。
2 3 . 上記複数の入力チャネルの信号は、 音響信号の右チャネルの 信号と左チャネルの信号からなることを特徴とする請求の範囲第 1 7項記載の符号化装置。
2 4 . 上記第 1の信号生成手段は、 音響信号の右チャネルの信号と 左チャネルの信号を加算する加算器を有し、
上記第 2の信号生成手段は、 音響信号の右チャネルの信号と左チ ャネルの信号を減算する減算器を有することを特徴とする請求の範 囲第 2 3項記載の符号化装置。
2 5 . 上記第 2の信号生成手段は、 上記第 2の信号の選択を所定の フレーム毎に行うことを特徴とする請求の範囲第 1 7項記載の符号 化装置。
2 6 . 上記符号化手段は、 上記第 1の信号と上記第 2の信号とをそ れぞれ異なる符号化方式で符号化することを特徴とする請求の範囲 第 1 7項記載の符号化装置。
2 7 . 上記符号化手段は、 時系列である第 1及び第 2の信号を所定 時間幅の変換プロック毎にスぺク トル信号成分に変換して符号化す ることを特徴とする請求の範囲第 2 6項記載の符号化装置。
2 8 . 上記符号化手段において、 上記第 2の信号に対する上記変換 プロックの大きさが、 上記第 1の信号に対する変換プロックの大き さよりも大きいことを特徴とする請求の範囲第 2 7項記載の符号化
2 9 . 上記符号化手段は、 上記第 2の信号の上記変換ブロックのス ぺク トル信号成分を、 所定のフレームの複数分に跨って符号化する ことを特徴とする請求の範囲第 2 7項記載の符号化装置。
3 0 . 上記符号化手段は、 上記第 2の信号を可変長符号化すること を特徴とする請求の範囲第 2 6項記載の符号化装置。
3 1 . 上記符号化手段は、 上記第 2の信号を、 信号エネルギが集中 する トーン成分とその他の非トーン成分とに分離して符号化するこ とを特徴とする請求の範囲第 2 6項記載の符号化装置。
3 2 . 上記符号化手段において、 上記第 1の信号の符号化に割り当 てられるビッ トレ一トと上記第 2の信号の符号化に割り当てられる ビッ トレートとは異なることを特徴とする請求の範囲第 2 6項記載 の符号化装置。
3 3 . 符号化された信号を復号する復号化方法において、
符号列から第 1の符号化信号と、 第 2の符号化信号と、 第 2の符 号化信号の構成するチャネル信号の構成状態を示す構成情報とを分 離し、
上記分離した第 1及び第 2の符号化信号をそれぞれ復号化して第 1及び第 2の信号を生成し、 上記構成情報に基づいて、 上記第 1及び第 2の信号から複数のチ ャネル信号を生成するための復元処理を選択する復号化方法。
3 4 . 符号化された信号を復号する復号化方法において、
複数のチャネルの信号から生成されて符号化された第 1の符号化 信号と、 上記複数のチャネルのうちの一部のチャネルと他のチヤネ ルの信号レベルに基づいて上記一部のチヤネルの信号のみからなる 第 2の信号又は上記複数のチャネルの信号から生成した第 2の信号 の何れかが選択されて符号化された第 2の符号化信号とを含む符号 列から上記第 1及び第 2の符号化信号を分離し、
上記分離した第 1及び第 2の符号化信号をそれぞれ復号化し、 上記復号化した第 1及び第 2の信号から複数チャネルの信号を復 元する復号化方法。
3 5 . 上記符号列から、 上記第 2の信号の選択状況を特定する選択 情報をも分離し、
上記選択情報に基づいて、 上記第 1及び第 2の符号化信号の復号 化及び複数チャネルの信号の復元を制御することを特徴とする請求 の範囲第 3 4項記載の復号化方法。
3 6 . 上記第 2の信号が上記複数のチャネルのうちの一部のチヤネ ルの信号のみからなることを上記選択情報が示すとき、 上記第 2の 符号化信号から上記一部のチャネルの信号を復号化し、
当該復号化した一部のチャネルの信号と上記復号化した第 1の信 号とから、 上記複数チヤネルの信号を復元することを特徴とする請 求の範囲第 3 5項記載の復号化方法。
3 7 . 上記第 2の信号が上記複数のチャネルの信号から生成された ことを上記選択情報が示すとき、 上記第 2の符号化信号から第 2の 信号を復号化し、
当該復号化した第 2の信号と上記復号化した第 1の信号とから、 上記複数チャネルの信号を復元することを特徴とする請求の範囲第 3 5項記載の復号化方法。
3 8 . 上記複数のチャネルの信号は、 音響信号の右チャネルの信号 と左チャネルの信号からなることを特徴とする請求の範囲第 3 4項 記載の復号化方法。
3 9 . 上記第 1の信号は、 音響信号の右チャネルの信号と左チヤネ ルの信号の加算によって求められた信号であり、
上記複数のチャネルの信号から生成した第 2の信号は、 音響信号 の右チャネルの信号と左チャネルの信号の減算によって求められた 信号であることを特徴とする請求の範囲第 3 8項記載の復号化方法。
4 0 . 上記選択情報は、 所定のフレーム毎の上記第 2の信号の選択 状況を示すことを特徴とする請求の範囲第 3 5項記載の復号化方法。
4 1 . 上記分離した第 1及び第 2の符号化信号をそれぞれ異なる復 号化方式にて復号化することを特徴とする請求の範囲第 3 4項記載 の復号化方法。
4 2 . スぺク トル信号成分を符号化した上記第 1及び第 2の符号化 信号を、 所定の変換プロック毎に時間軸の上記第 1及び第 2の信号 に変換し、 上記変換プロックを合成して時系列の第 1及び第 2の信 号を復号化することを特徴とする請求の範囲第 4 1項記載の復号化 方法。
4 3 . 上記第 2の符号化信号に対する上記変換プロックの大きさが、 上記第 1の符号化信号に対する上記変換プロックの大きさよりも大 きいことを特徴とする請求の範囲第 4 2項記載の復号化方法。
4 4 . 上記第 2の符号化信号の上記変換プロックのスぺク トル信号 成分を、 所定のフレームの複数分に跨って復号化することを特徴と する請求の範囲第 4 2項記載の復号化方法。
4 5 . 可変長符号化された上記第 2の符号化信号を復号化すること を特徴とする請求の範囲第 4 1項記載の復号化方法。
4 6 . 上記第 2の符号化信号から信号エネルギが集中する トーン成 分とその他の非トーン成分とを復号化し、
上記復号化したトーン成分とその他の非トーン成分とを合成して 上記第 2の信号を生成することを特徴とする請求の範囲第 4 1項記 載の復号化方法。
4 7 . 上記第 1の符号化信号のビッ トレートと上記第 2の符号化信 号のビッ トレートとは異なることを特徴とする請求の範囲第 4 1項 記載の復号化方法。
4 8 . 符号化された信号を復号する復号化装置において、
符号列から第 1の符号化信号と、 第 2の符号化信号と、 第 2の符 号化信号の構成するチャネル信号の構成状態を示す構成情報とを分 離する分離手段と、
上記分離した第 1及び第 2の符号化信号をそれぞれ復号化して第
1及び第 2の信号を生成する復号化手段と、
上記構成情報に基づいて、 上記第 1及び第 2の信号から複数のチ ャネル信号を生成するための復元処理を選択する制御手段とを具備 する復号化装置。
4 9 . 符号化された信号を復号する復号化装置において、
複数のチャネルの信号から生成されて符号化された第 1の符号化 信号と、 上記複数のチャネルのうちの一部のチャネルと他のチヤネ ルの信号レベルに基づいて上記一部のチャネルの信号のみからなる 第 2の信号又は上記複数のチャネルの信号から生成した第 2の信号 の何れかが選択されて符号化された第 2の符号化信号とを含む符号 列から上記第 1及び第 2の符号化信号を分離する分離手段と、 上記分離した第 1及び第 2の符号化信号をそれぞれ復号化する復 号化手段と、
上記復号化した第 1及び第 2の信号から複数チャネルの信号を復 元する復元手段とを具備する復号化装置。
5 0 . 上記分離手段は、 上記符号列から、 上記第 2の信号の選択状 況を特定する選択情報をも分離し、
上記選択情報に基づいて、 上記第 1及び第 2の符号化信号の復号 化及び複数チャネルの信号の復元を制御する制御手段をさらに具備 することを特徴とする請求の範囲第 4 9項記載の復号化装置。
5 1 . 上記制御手段は、 上記第 2の信号が上記複数のチャネルのう ちの一部のチャネルの信号のみからなることを上記選択情報が示す とき、 上記第 2の復号化手段を制御して、 上記第 2の符号化信号か ら上記一部のチャネルの信号を復号化するとともに、 上記復元手段 を制御して、 上記復号化した一部のチャネルの信号と上記復号化し た第 1の信号とから上記複数チャネルの信号を復元することを特徴 とする請求の範囲第 5 0項記載の復号化装置。
5 2 . 上記制御手段は、 上記第 2の信号が上記複数のチャネルの信 号から生成されたことを上記選択情報が示すとき、 上記第 2の復号 化手段を制御して、 上記第 2の符号化信号から上記第 2の信号を復 号化するとともに、 上記復元手段を制御して、 上記復号化した第 2 の信号と上記復号化した第 1の信号とから上記複数チャネルの信号 を復元することを特徴とする請求の範囲第 5 0項記載の復号化装置,
5 3 . 上記複数のチャネルの信号は、 音響信号の右チャネルの信号 と左チャネルの信号からなることを特徴とする請求の範囲第 4 9項 記載の復号化装置。
5 4 . 上記第 1の信号は、 音響信号の右チャネルの信号と左チヤネ ルの信号の加算によって求められた信号であり、
上記複数のチャネルの信号から生成した第 2の信号は、 音響信号 の右チャネルの信号と左チャネルの信号の減算によって求められた 信号であることを特徴とする請求の範囲第 5 3項記載の復号化装置 c 5 5 . 上記選択情報は所定のフレーム毎の上記第 2の信号の選択状 況を示し、
上記制御手段は上記所定のフレーム毎に上記復号化及び復元の制 御を行うことを特徴とする請求の範囲第 5 0項記載の復号化装置。 5 6 . 上記復号化手段は、 上記分離した第 1及び第 2の符号化信号 をそれぞれ異なる復号化方式にて復号化することを特徴とする請求 の範囲第 4 9項記載の復号化装置。
5 7 . 上記復号化手段は、 スペク トル信号成分を符号化した上記第 1及び第 2の符号化信号を、 所定の変換プロック毎に時間軸の上記 第 1及び第 2の信号に変換し、 上記変換プロックを合成して時系列 の第 1及び第 2の信号を復号化することを特徴とする請求の範囲第 5 6項記載の復号化装置。
5 8 . 上記第 2の符号化信号に対する上記変換プロックの大きさが、 上記第 1の符号化信号に対する上記変換プロックの大きさよりも大 きいことを特徴とする請求の範囲第 5 7項記載の復号化装置。
5 9 . 上記復号化手段は、 上記第 2の符号化信号の上記変換ブロッ クのスぺク トル信号成分を、 所定のフレームの複数分に跨って復号 化することを特徴とする請求の範囲第 5 7項記載の復号化装置。 6 0 . 上記復号化手段は、 可変長符号化された上記第 2の符号化信 号を復号化することを特徴とする請求の範囲第 5 6項記載の復号化
6 1 . 上記復号化手段は、 上記第 2の符号化信号から信号エネルギ が集中する トーン成分とその他の非トーン成分とを復号化し、 上記 復号化した トーン成分とその他の非トーン成分とを合成して上記第 2の信号を生成することを特徴とする請求の範囲第 5 6項記載の復 号化装置。
6 2 . 上記第 1の符号化信号のビッ トレートと上記第 2の符号化信 号のビッ トレートとは異なることを特徴とする請求の範囲第 5 6項 記載の復号化装置。
6 3 . 複数の入力チャネルの信号から生成された第 1の信号を符号 化した第 1の符号化信号と、 上記複数の入力チャネルのうちの一部 のチャネルと他のチャネルの信号レベルに基づいて上記一部のチヤ ネルの信号のみからなる第 2の信号又は上記複数の入力チャネルの 信号から生成した第 2の信号の何れかを選択して符号化した第 2の 符号化信号と、 上記第 1、 第 2の信号の符号化の際の符号化パラメ 一夕とを有する符号列を記録してなる記録媒体。
6 4 . 上記符号列は、 上記一部のチャネルの信号のみからなる第 2 の信号又は上記複数の入力チャネルの信号から生成した第 2の信号 の何れを選択したかを示す選択情報を含むことを特徴とする請求の 範囲第 6 3項記載の記録媒体。
6 5 . 上記第 1の符号化信号と第 2の符号化信号の符号化方式はそ れそれ異なることを特徴とする請求の範囲第 6 3項記載の記録媒体。 6 6 . 上記第 1及び第 2の符号化信号は、 時系列である第 1及び第 2の信号を所定時間幅の変換プロック毎にスぺク トル信号成分に変 換して符号化したものであることを特徴とする請求の範囲第 6 5項 記載の記録媒体。
6 7 . 上記第 2の符号化信号は、 上記第 2の信号を可変長符号化し たものであることを特徴とする請求の範囲第 6 5項記載の記録媒体。 6 8 . 上記第 2の符号化信号は、 上記第 2の信号を信号エネルギが 集中する トーン成分とその他の非トーン成分とに分離して符号化し たものであることを特徴とする請求の範囲第 6 5項記載の記録媒体。
PCT/JP1998/001672 1997-04-10 1998-04-10 Procede et dispositif de codage, procede et dispositif de decodage et support d'enregistrement WO1998046045A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP98912767A EP0924962B1 (en) 1997-04-10 1998-04-10 Encoding method and device, decoding method and device, and recording medium
US09/202,157 US6741965B1 (en) 1997-04-10 1998-04-10 Differential stereo using two coding techniques
JP54260898A JP3887827B2 (ja) 1997-04-10 1998-04-10 符号化方法及び装置、復号化方法及び装置、並びに記録媒体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9244897 1997-04-10
JP9/92448 1997-04-10

Publications (1)

Publication Number Publication Date
WO1998046045A1 true WO1998046045A1 (fr) 1998-10-15

Family

ID=14054698

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/001672 WO1998046045A1 (fr) 1997-04-10 1998-04-10 Procede et dispositif de codage, procede et dispositif de decodage et support d'enregistrement

Country Status (5)

Country Link
US (1) US6741965B1 (ja)
EP (1) EP0924962B1 (ja)
JP (1) JP3887827B2 (ja)
CN (1) CN1205842C (ja)
WO (1) WO1998046045A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003032296A1 (fr) * 2001-10-03 2003-04-17 Sony Corporation Appareil et procede de codage, appareil et procede de decodage et appareil et procede d'enregistrement de support d'enregistrement
JP2006195471A (ja) * 2005-01-13 2006-07-27 Samsung Electronics Co Ltd 多チャンネル信号符号化/復号化方法及びその装置
WO2006118179A1 (ja) * 2005-04-28 2006-11-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置および音声符号化方法
WO2006118178A1 (ja) * 2005-04-28 2006-11-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置および音声符号化方法
JP2007219542A (ja) * 2003-04-30 2007-08-30 Coding Technologies Ab 複素指数変調フィルタバンクを基にした新型プロセッシングおよび適応型時間信号伝達方法
JP2009010841A (ja) * 2007-06-29 2009-01-15 Kenwood Corp ステレオ復調装置及びステレオ復調方法
JP2011227256A (ja) * 2010-04-19 2011-11-10 Toshiba Corp 信号補正装置

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030040203A (ko) * 2001-05-11 2003-05-22 마쯔시다덴기산교 가부시키가이샤 부호화 장치, 복호화 장치 및 방송 시스템
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US7299190B2 (en) 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
JP4676140B2 (ja) 2002-09-04 2011-04-27 マイクロソフト コーポレーション オーディオの量子化および逆量子化
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
US7460990B2 (en) 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
SE0400998D0 (sv) * 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
US7895012B2 (en) * 2005-05-03 2011-02-22 Hewlett-Packard Development Company, L.P. Systems and methods for organizing and storing data
US7539612B2 (en) 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
CN101427307B (zh) * 2005-09-27 2012-03-07 Lg电子株式会社 编码/解码多声道音频信号的方法和装置
KR100888474B1 (ko) 2005-11-21 2009-03-12 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법
JP2007179641A (ja) * 2005-12-27 2007-07-12 Sony Corp 情報処理装置、コンテンツ再生可否判定通知方法及びコンテンツ再生可否判定通知プログラム
US7953604B2 (en) 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US8190425B2 (en) 2006-01-20 2012-05-29 Microsoft Corporation Complex cross-correlation parameters for multi-channel audio
US7831434B2 (en) * 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
US8254717B2 (en) * 2006-04-21 2012-08-28 Tp Vision Holding B.V. Picture enhancement by utilizing quantization precision of regions
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US20090319279A1 (en) * 2008-06-19 2009-12-24 Hongwei Kong Method and system for audio transmit loopback processing in an audio codec
CN102157151B (zh) * 2010-02-11 2012-10-03 华为技术有限公司 一种多声道信号编码方法、解码方法、装置和系统
US9679572B2 (en) 2013-04-23 2017-06-13 The Korea Development Bank Method and apparatus for encoding/decoding scalable digital audio using direct audio channel data and indirect audio channel data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6452400U (ja) * 1987-09-28 1989-03-31
JPH01247000A (ja) * 1988-03-29 1989-10-02 Asahi Optical Co Ltd ディジタル音声再生装置
JPH02210666A (ja) * 1989-02-09 1990-08-22 Pioneer Electron Corp 記録再生方式
JPH07221717A (ja) * 1994-02-01 1995-08-18 Graphics Commun Lab:Kk Pcmオーディオ信号の変換方法と装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5285498A (en) * 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
CA2090052C (en) * 1992-03-02 1998-11-24 Anibal Joao De Sousa Ferreira Method and apparatus for the perceptual coding of audio signals
EP0559348A3 (en) * 1992-03-02 1993-11-03 AT&T Corp. Rate control loop processor for perceptual encoder/decoder
AU673085B2 (en) * 1993-05-31 1996-10-24 Sony Corporation Apparatus and method for coding or decoding signals, and recording medium
JP3175446B2 (ja) * 1993-11-29 2001-06-11 ソニー株式会社 情報圧縮方法及び装置、圧縮情報伸張方法及び装置、圧縮情報記録/伝送装置、圧縮情報再生装置、圧縮情報受信装置、並びに記録媒体
JP3277692B2 (ja) * 1994-06-13 2002-04-22 ソニー株式会社 情報符号化方法、情報復号化方法及び情報記録媒体
US6041295A (en) * 1995-04-10 2000-03-21 Corporate Computer Systems Comparing CODEC input/output to adjust psycho-acoustic parameters
TW429700B (en) * 1997-02-26 2001-04-11 Sony Corp Information encoding method and apparatus, information decoding method and apparatus and information recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6452400U (ja) * 1987-09-28 1989-03-31
JPH01247000A (ja) * 1988-03-29 1989-10-02 Asahi Optical Co Ltd ディジタル音声再生装置
JPH02210666A (ja) * 1989-02-09 1990-08-22 Pioneer Electron Corp 記録再生方式
JPH07221717A (ja) * 1994-02-01 1995-08-18 Graphics Commun Lab:Kk Pcmオーディオ信号の変換方法と装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JAMES D. JOHNSTON: "Perceptual Transform Coding of Wide-band Stereo Signals", ICASSP, vol. 89, pages 1993 - 1995
See also references of EP0924962A4

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7318026B2 (en) 2001-10-03 2008-01-08 Sony Corporation Encoding apparatus and method, decoding apparatus and method, and recording medium recording apparatus and method
WO2003032296A1 (fr) * 2001-10-03 2003-04-17 Sony Corporation Appareil et procede de codage, appareil et procede de decodage et appareil et procede d'enregistrement de support d'enregistrement
JP2007219542A (ja) * 2003-04-30 2007-08-30 Coding Technologies Ab 複素指数変調フィルタバンクを基にした新型プロセッシングおよび適応型時間信号伝達方法
JP4602375B2 (ja) * 2003-04-30 2010-12-22 ドルビー インターナショナル アクチボラゲット ステレオ信号を符号化する符号化装置、符号化方法、復号器、復号化方法および符号化方法又は復号化方法を実行させるためのコンピュータプログラム
JP2006195471A (ja) * 2005-01-13 2006-07-27 Samsung Electronics Co Ltd 多チャンネル信号符号化/復号化方法及びその装置
US8428956B2 (en) 2005-04-28 2013-04-23 Panasonic Corporation Audio encoding device and audio encoding method
WO2006118179A1 (ja) * 2005-04-28 2006-11-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置および音声符号化方法
WO2006118178A1 (ja) * 2005-04-28 2006-11-09 Matsushita Electric Industrial Co., Ltd. 音声符号化装置および音声符号化方法
CN101167126B (zh) * 2005-04-28 2011-09-21 松下电器产业株式会社 语音编码装置和语音编码方法
US8433581B2 (en) 2005-04-28 2013-04-30 Panasonic Corporation Audio encoding device and audio encoding method
JP2009010841A (ja) * 2007-06-29 2009-01-15 Kenwood Corp ステレオ復調装置及びステレオ復調方法
JP2011227256A (ja) * 2010-04-19 2011-11-10 Toshiba Corp 信号補正装置
US8532309B2 (en) 2010-04-19 2013-09-10 Kabushiki Kaisha Toshiba Signal correction apparatus and signal correction method

Also Published As

Publication number Publication date
CN1205842C (zh) 2005-06-08
US6741965B1 (en) 2004-05-25
JP3887827B2 (ja) 2007-02-28
EP0924962A4 (en) 2006-05-31
EP0924962A1 (en) 1999-06-23
EP0924962B1 (en) 2012-12-12
CN1228236A (zh) 1999-09-08

Similar Documents

Publication Publication Date Title
JP3887827B2 (ja) 符号化方法及び装置、復号化方法及び装置、並びに記録媒体
KR100565017B1 (ko) 정보부호화방법과장치와정보복호화방법과장치및정보기록매체
US6169973B1 (en) Encoding method and apparatus, decoding method and apparatus and recording medium
JP3496411B2 (ja) 情報符号化方法及び復号化装置
JP3123286B2 (ja) ディジタル信号処理装置又は方法、及び記録媒体
JPH1132399A (ja) 符号化方法及び装置、並びに記録媒体
US6356211B1 (en) Encoding method and apparatus and recording medium
JP3123290B2 (ja) 圧縮データ記録装置及び方法、圧縮データ再生方法、記録媒体
KR100742260B1 (ko) 부호화장치 및 방법, 기록매체와 복호장치 및 방법
EP0963055B1 (en) Method and apparatus for transforming coded information signals
JP4211166B2 (ja) 符号化装置及び方法、記録媒体、並びに復号装置及び方法
US7257226B1 (en) Information management method and information management apparatus
US6963860B1 (en) Information recording and reproducing system and method and distribution medium
JP4470304B2 (ja) 圧縮データ記録装置、記録方法、圧縮データ記録再生装置、記録再生方法および記録媒体
EP0971350A1 (en) Information encoding device and method, information decoding device and method, recording medium, and provided medium
JP2000036755A (ja) 符号変換方法及び装置、並びにプログラム供給媒体
KR100563161B1 (ko) 부호화 방법 및 장치, 복호화 방법 및 장치,기록 매체
JP3175456B2 (ja) ディジタル信号処理装置
JP3854313B2 (ja) 複数の情報信号のエンコーディング
JP4123632B2 (ja) 情報符号化方法及び装置、並びにプログラム供給媒体
JP4066740B2 (ja) 信号再生装置及び方法、信号記録装置及び方法、並びに符号列生成方法及び装置
JPH10302405A (ja) 情報符号化方法及び装置、情報復号化方法及び装置、並びに情報記録媒体
Smyth An Overview of the Coherent Acoustics Coding System
JPH1022935A (ja) 情報符号化方法、情報復号化装置及び情報記録媒体
JP2000036753A (ja) 符号変換方法及び装置、並びにプログラム供給媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98800781.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 1998912767

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1019980710131

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09202157

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1998912767

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1019980710131

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1019980710131

Country of ref document: KR