EP1016319A1 - Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals - Google Patents

Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Info

Publication number
EP1016319A1
EP1016319A1 EP98932156A EP98932156A EP1016319A1 EP 1016319 A1 EP1016319 A1 EP 1016319A1 EP 98932156 A EP98932156 A EP 98932156A EP 98932156 A EP98932156 A EP 98932156A EP 1016319 A1 EP1016319 A1 EP 1016319A1
Authority
EP
European Patent Office
Prior art keywords
signal
transformed
stereo
encoded
mono signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP98932156A
Other languages
English (en)
French (fr)
Other versions
EP1016319B1 (de
Inventor
Bernhard Grill
Bodo Teichmann
Karlheinz Brandenburg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP1016319A1 publication Critical patent/EP1016319A1/de
Application granted granted Critical
Publication of EP1016319B1 publication Critical patent/EP1016319B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation

Definitions

  • the present invention relates to scalable audio coders and in particular to methods and devices for coding a discrete-time stereo signal.
  • Scalable audio encoders are encoders that have a modular structure. So there is an effort to use already existing speech coders, the signals which, for. B. are sampled at 8 kHz, process and output data rates of, for example, 4.8 to 8 kilobits per second.
  • These known encoders such as. B. the encoders G. 729, G.723, FS1016, CELP or parametric models of the MPEG-4 audio VM, which are known to those skilled in the art, are mainly used for encoding voice signals and are generally not suitable for encoding higher quality music signals since they are usually designed for signals sampled at 8 kHz, which is why they can only encode an audio bandwidth of maximum 4 kHz. However, they generally show fast operation and little computing effort.
  • a voice encoder is therefore combined with an audio encoder in a scalable encoder, which signals with a higher sampling rate, such as e.g. B. 48 kHz, can encode.
  • a scalable encoder which signals with a higher sampling rate, such as e.g. B. 48 kHz, can encode.
  • a speech coder it is also possible to replace the above-mentioned speech coder with another coder, for example with a music / audio coder according to the standards MPEG1, MPEG2 or MPEG4.
  • a high quality audio encoder usually uses the method of differential coding in the time domain.
  • An input signal which has a sampling rate of 48 kHz, for example, is down-sampled to the sampling frequency suitable for the speech coder by means of a downsampling filter.
  • the down-sampled signal is now encoded.
  • the coded signal can be fed directly to a bit stream formatting device in order to be transmitted. However, it only contains signals with a bandwidth of e.g. B. maximum 4 kHz.
  • the coded signal is further decoded and sampled up using an upsampling filter. However, due to the downsampling filter, the signal now obtained only has useful information with a bandwidth of, for example, 4 kHz.
  • the spectral content of the up-sampled coded / decoded signal in the lower band up to 4 kHz does not exactly correspond to the first 4 kHz band of the input signal sampled at 48 kHz, since encoders generally introduce coding errors.
  • a scalable encoder has both a generally known speech encoder and an audio encoder that can process signals at higher sampling rates.
  • a difference between the input signal at 8 kHz and the coded / decoded, sampled output signal of the speech encoder is formed for each individual time-discrete sample value.
  • This difference can then be quantized and encoded using a known audio encoder, as is known to those skilled in the art.
  • the difference signal which is fed into the audio encoder which can encode signals with higher sampling rates, is very much smaller in the lower frequency range, apart from coding errors of the speech encoder, than the original.
  • the difference signal corresponds to essentially the true input signal, which with z. B. 48 kHz was sampled.
  • a coder with a low sampling frequency is usually used, since generally a very low bit rate of the encoded signal is aimed for.
  • coders also called coders
  • They work with bit rates of a few kilobits (two to eight kilobits or even higher). They also allow a maximum sampling frequency of 8 kHz, since audio bandwidth at this low bit rate is no longer possible anyway, and coding at a lower sampling frequency is more economical in terms of computational complexity.
  • the maximum possible audio bandwidth is 4 kHz and is limited in practice to about 3.5 kHz.
  • “Joint stereo” includes stereo coding techniques, such as. B. to understand the middle-side coding (M / S coding) or the intensity stereo coding (IS coding). If a separate scalable mono audio encoder is simply used for the left (L) and the right (R) channel of a stereo signal, a stereo signal can be encoded, but the encoding does not take into account any joint stereo techniques, which can open up far-reaching savings opportunities in the bit-saving coding of stereo signals.
  • M / S coding middle-side coding
  • IS coding intensity stereo coding
  • the object of the present invention is to provide a method and a device for coding a time to create discrete stereo signals that allow the use of joint stereo techniques.
  • This object is achieved by a method for coding a time-discrete stereo signal according to claim 1 and by a device for coding a time-discrete stereo signal according to claim 14.
  • the present invention is based on the finding that a combination of joint stereo techniques with the principle of scalability can be achieved if a mono signal is initially formed from the left and right channels of a stereo signal, which can preferably be done by summation.
  • the mono signal is encoded by means of a first encoder, whereupon the resulting signal is fed to a bit stream multiplexer.
  • the encoded mono signal is further decoded again to obtain an encoded / decoded mono signal that differs from the original mono signal in that it has coding errors introduced by the first encoder.
  • stereo information can now be generated, which for example center / side (M / S) information or intensity stereo (IS) information or also under certain circumstances can be the original left channel or the original right channel.
  • M / S center / side
  • IS intensity stereo
  • the coded / decoded mono signal itself or the difference of the original mono signal from the coded / decoded mono signal can also be used as stereo information, together with the difference between the left and right channel, which is also referred to as an S signal will result in a middle / side coding directly.
  • the stereo information can now be coded by means of a second encoder, which can be constructed identically to the first encoder or also differently from the first encoder, and also fed to a bit stream multiplexer, which generates a bit stream from the encoded mono signal and the encoded stereo information and generated from page information necessary for later decoding.
  • the formation of the mono signal and the coding of the same can take place in the time domain if, for example, as the first encoder or core encoder.
  • the formation and coding of stereo information preferably takes place in the frequency domain, since powerful encoders can then be used which operate according to the psychoacoustic model.
  • the left and right channels are transformed into the frequency domain before further processing, which means that a frequency domain encoder can also be used for coding the mono signal, which can code using the psychoacoustic model as distortion-free as possible.
  • the mono signal formed from the summation of the left and right channels must first be converted to the lower sampling frequency, which is also called downsampling.
  • the mono signal converted to the lower sampling frequency is now encoded and decoded again, the encoded / decoded mono signal also having the lower sampling frequency.
  • the encoded / decoded mono signal In order to be able to be related to the higher-sampled left and right channel to form stereo information, the encoded / decoded mono signal must be converted back to the sampling frequency of the discrete-time stereo signal, which is also referred to as upsampling.
  • MDCT modified discrete cosine transformation
  • the first encoder is operated at the same sampling rate that the discrete-time stereo signal has, downsampling and upsampling can of course be dispensed with.
  • FIG. 1 shows a scalable stereo encoder with mono signal formation and coding in the time domain and center / side coding in the frequency domain according to a first exemplary embodiment of the present invention
  • FIG. 2A shows a scalable stereo coder with mono signal formation and coding in the time domain and L / R or M / S coding in the frequency domain according to a second exemplary embodiment
  • FIG. 2B is a more detailed illustration of the scalable stereo encoder of FIG. 2A;
  • FIG. 3 is an expanded illustration of the scalable stereo encoder shown in FIG. 2A according to a third embodiment of the present invention.
  • FIG. 4 shows a scalable stereo encoder with mono signal formation in the time domain and optional L / R or M / S coding in the frequency domain.
  • the scalable stereo encoder receives a discrete-time stereo signal, the first or left channel L and a second or right channel R comprises.
  • a sum signal is formed from the stereo signal, preferably by sampling summation by means of a summer 102, which is then multiplied by a factor of 0.5 by means of a multiplier 104 in order to generate a mono signal in this exemplary embodiment which corresponds to that of the M / S Coding known center signal is identical.
  • the mono signal at the output of the multiplier 104 is fed into a downsampling filter 106 in order to convert the sampling rate thereof to a preferably lower sampling rate, which enables the mono signal to be encoded by means of a time-domain encoder which is part of the core codec 108.
  • the encoded mono signal is written together with corresponding side information in a bit stream multiplexer 110, which generates a bit stream at its output 112, which is a coded representation of the discrete-time stereo signal.
  • the encoded mono signal is decoded again in order to be converted back to the first sampling rate by means of an upsampling filter 114, so that the encoded / decoded mono signal is related to the left and right channels for later formation of stereo information can be set.
  • the discrete-time stereo signal could, for example, by means of a first sampling rate, e.g. B. 48 kHz, have been sampled.
  • the downsampling filter 106 could change this signal with the first sampling rate to a second sampling rate of e.g. B. implement 8 kHz.
  • the first and the second sampling rate preferably form an integer ratio.
  • the downsampling filter 106 can be implemented, for example, as a decimation filter.
  • the core codec 108 could, for example, be a speech coder, e.g. BG729, G.723, FS1016, MPEG-4 CELP, MPEG-4 PAR, or a similar encoder.
  • Such encoders operate at data rates from 4.8 kilobits per second (FS1016) to data rates from 8 kilobits per second (G.729).
  • FS1016 4.8 kilobits per second
  • G.729 8 kilobits per second
  • the encoded mono signal has a maximum bandwidth of 4 kHz, since the downsampling filter 106 converts the mono signal z. B. has implemented by means of decimation to a sampling frequency of 8 kHz. Within the bandwidth of 0-4 kHz, the coded / decoded mono signal and the original mono signal at the input of the downsampling filter 106 are now the same, apart from coding errors introduced by the core codec 108.
  • the coding errors introduced by the core codec 108 are not always small errors, but that they can easily come in the order of magnitude of the useful signal if, for example, a strongly transient signal is encoded in the first encoder. For this reason, as will be discussed later, it is checked whether differential coding makes sense at all.
  • the output signal of the upsampling filter 114 is now converted into the frequency range by means of MDCT filter banks 116.
  • the output signals of the MDCT filter banks 116 are fed directly to a first frequency-selective switching device (FSS) 118a or to a second frequency-selective switching device 118b or indirectly via a first summer 120a or a second summer 120b .
  • FSS frequency-selective switching device
  • the output signal of the MDCT filter bank for the left channel is fed to the first frequency-selective switching device (FSS) 118a, which also receives the sum of the transformed left channel and the transformed coded / decoded mono signal provided with a negative sign.
  • the second frequency-selective switching device 118b receives the Sum of the transformed R-channel and the coded / decoded mono signal with negative sign.
  • the frequency-selective switching devices 118a, 118b check whether it is more favorable to process the transformed original left or right " signal or the difference between the left or right signal and the encoded / decoded mono signal. The function of the frequency-selective switching device will be described in more detail later .
  • the output signal of the first frequency-selective switching device 118a is fed to both a third summer 122a and a fourth summer 122b with a positive sign, while the output signal of the second frequency-selective switching device 118b is fed to the third summer 122a with a positive sign and the fourth summer 122b with a negative sign.
  • the third summer 122a there is either either the sum of the transformed left and right channel or the difference between the sum of the uncoded left and right channel and the coded / decoded sum of the left and right channel.
  • This signal which now has stereo information in contrast to the encoded mono signal of the core codec 108, is encoded by means of an M encoder 124, taking into account the psychoacoustic model, for example, and fed to the bitstream multiplexer 110.
  • the fourth summer 122b there is the difference of the transformed left and right channels, this signal also being referred to in the art as a side signal which is fed into an S-encoder 126, the S-encoder 126 as well the M encoder 124 can encode considering the psychoacoustic model.
  • the output signal of the S encoder 126 is likewise fed into the bit stream multiplexer and also comprises stereo information with regard to the discrete-time stereo signal at the input of the scalable stereo encoder 100 according to the first exemplary embodiment of the present Invention. It will be apparent to those skilled in the art that a complete bit stream requires page information.
  • Side information relevant to the invention is, in particular, information from the frequency-selective switching devices 118a and 118b with regard to the frequency band in which differential signals or transformed L or R signals were output to the third summer 122a or the fourth summer 122b.
  • the output signal of the core codec 108 has, as already mentioned, e.g. B. a sampling frequency of 8 kHz.
  • This signal i.e. H. the mono signal, with a lower sampling rate than the original discrete-time stereo signal, is now to be related to the left or right channel in order to form stereo information.
  • the signal with a lower sampling rate must therefore be converted into a signal with the same sampling rate as the sampling rate of the discrete-time stereo signal.
  • the number of zero values is calculated from the ratio of the first and the second sampling frequency.
  • the ratio of the first (high) to the second (low) sampling frequency is called the upsampling factor.
  • the insertion of zeros which is possible with very little computational effort, produces an aliasing disturbance which has the effect that the low-frequency or zero spectrum of the encoded / decoded mono signal is repeated at the output of the core codec 108 is, in total, as often as many zeros have been inserted.
  • the aliasing signal is now in the frequency range by means of the MDCT filter bank 116 transformed.
  • the coded / decoded mono signal converted up to the first sampling frequency is only a correct representation of the original mono signal at the output of the multiplier 104 in the lower frequency band, which is why only a maximum of one / upsampling factor times the total spectral lines is used at the output of the MDCT filter bank 116 becomes.
  • inserting the zeros into the encoded / decoded mono signal at the output of core codec 108 causes the spectral representation of the encoded / decoded mono signal to now have the same time and frequency resolution as the transformed left and right channels.
  • the frequency-selective switching devices therefore carry out a so-called simulcast difference switchover. For example, it is unfavorable to process a difference signal further if the difference signal has a higher energy than the corresponding other signal at the input of the frequency-selective switching device 118a. Since an arbitrary encoder can be used as the core codec 108, it can happen that the encoder produces certain signal components that are difficult to encode by the M-encoder 124 or by the S-encoder 126.
  • the core codec 108 should preferably preserve phase information of the signal coded by it, which is referred to in the art as "waveform coding" or “signal form coding”.
  • wave coding or “signal form coding”.
  • the decision that the frequency-selective switching module 118a or 118b makes is preferably made as a function of frequency.
  • “Differential coding” means that only the difference between the transformed left and right channels and the transformed coded / decoded mono signal is coded. However, if this differential coding is not favorable, since the energy content of the differential signal is greater than the energy content of the transformed left or right signal, then differential coding is dispensed with and a switch is made to simulcast operation.
  • Forming stereo information based on the encoded / decoded mono signal and the first and second Channel therefore includes a determination of where it is more convenient to process the transformed left or right channel or a difference thereof and the encoded / decoded mono signal.
  • a frequency-selective comparison of the respective energies is now carried out in each selected frequency band. If the energy in a particular frequency band of the difference signal exceeds the energy of the other signal multiplied by a predetermined factor k, it is determined that the output signal of the frequency selective switching device 118a is the original transformed left signal. Otherwise, it is determined that the difference spectral values are output.
  • the factor k can range, for example, from about 0.1 to 10.
  • simulcast coding is already used if the difference signal has a lower energy than the other signal.
  • differential coding is still used, even if the energy content of the differential signal is already greater than that of the original left or right channel.
  • formation of stereo information can also be carried out in such a way that, for. B. a ratio or other linkage of the encoded / decoded mono signal and the transformed left or right channel is implemented.
  • FIG. 2A shows a scalable stereo encoder 200 according to a second exemplary embodiment of the present invention.
  • the same elements have the same reference symbols and, if they behave in the same way, are not described again.
  • the scalable stereo encoder 200 differs from the scalable stereo encoder 100 according to the first exemplary embodiment of the present invention essentially in that either a middle / side coding or an L / R coding can be carried out.
  • the scalable stereo encoder 200 comprises further summing devices 202a, 202b in order to use the transformed left and right channel to generate a center signal M and a side signal S, respectively.
  • the transformed encoded / decoded mono signal is referred to here as M '.
  • the signal M and the signal M ' are fed into a likewise additional frequency-selective switching device 204, which generates a signal M'', the frequency-selective switching device 204 also being preceded by a summer 206, as is the case with all other frequency-selective switching devices.
  • the scalable stereo encoder 200 also includes a block joint stereo decision 208 which receives 4 input signals L ', M'', S and R'. The block joint stereo decision 208 decides in a known manner whether L / R, M / S or intensity coding is to be carried out by a stereo encoder 210.
  • a mono signal is formed from the discrete-time stereo signal, this formation taking place in the time domain and equatingly as follows:
  • the index T is intended to indicate that this is a middle signal in the time domain.
  • the core encoder 108 now operates as was shown in connection with FIG. 1.
  • an MDCT is also carried out on the L and R signals.
  • the M / S signal in the frequency domain is now calculated using the summers 202a and 202b and the downstream multipliers, which is expressed as follows in equations:
  • the frequency-selective switching device now serves to calculate M “.
  • M is either equal to M-M "or M itself, as has already been shown.
  • the frequency-selective switching device 118 calculates the signal L ', which either is equal to 0.5 • (L - M ') or equal to 0.5 • L.
  • the switching devices 118a, 118b and 204 operate in a frequency-selective manner.
  • a decision is now made in the usual way as to whether the signals L 'and R' or M '' or S have to be encoded known in the art and is therefore not explained in detail.
  • FIG. 2B shows a scalable stereo encoder, which differs in some points from the scalable stereo encoder 200 according to the second exemplary embodiment of the invention.
  • the same comprises the two multipliers 214a and 214b, which are arranged after the frequency-selective switching device 204 and after the frequency-selective switching device 118b.
  • 2B also includes a somewhat more detailed illustration of the frequency selective switching devices.
  • the switch state of the frequency selective switch 118a which is referred to as S 1LR
  • S ' 1LR will always be complementary to the switch state of the frequency selective switch 118b, which is referred to as S ' 1LR .
  • S 2 assumes a different state, ie state b, as shown in the drawing, it is sufficient to transmit the state S 1M of the frequency-selective switching device 204 , which indicates whether a differential or simulcast coding of the signal M is carried out. If the switch S 2 is in a position c, then side information is transmitted that an intensity stereo coding is present, in which case the position is likewise of the switch S 1M is transmitted, while here the positions of S 1LR and S ' 1LR are irrelevant.
  • FIG. 3 comprises a further exemplary embodiment 300 of a scalable stereo encoder according to the present invention.
  • the embodiment shown in FIG. 3 differs from the embodiment shown in FIG. 2 essentially in that the mono signal is encoded in two stages.
  • the first stage is formed by the core codec 108, while the second stage is formed by an encoder / decoder 302 which, in the preferred embodiment, operates in the frequency domain and can be designed as a psychoacoustic frequency domain encoder. It receives the output signal of the frequency-selective switching device 204 as the input signal M ′′, it also being checked here whether a differential or simulcast coding is useful or not.
  • the output signal of the encoder / decoder 302 is fed to a summer 304, whose output signal M ′′ ′′ corresponds to the difference between the signal M and the output signal of the encoder / decoder 302. Like the signals L ', S and R', this signal M '''is (not shown) and then fed to a stereo encoder (also not shown).
  • the core codec 108 like the encoder / decoder 302, includes an output to the bitstream multiplexer to transmit encoded data thereto.
  • the bit stream comprises, in addition to the first layer or the first layer, which is formed by the encoded mono signal of the core codec 108, a second layer, which is encoded by the encoded signal M "at the bit current multiplexer output of the encoder / decoder 302 is formed, wherein the encoder 300 shown in FIG. 3 can enable encoding of the mono signal at full sampling rate.
  • FIG. 4 shows a scalable audio encoder 400 which only carries out mono signal formation in the frequency domain.
  • the signals L and R are transformed into the frequency range by means of MDCT filter banks 116, after which an M / S matrix is carried out by means of the summers 202a and 202b and the subsequent multipliers by a factor of 0.5.
  • an M / S matrix is carried out by means of the summers 202a and 202b and the subsequent multipliers by a factor of 0.5.
  • the middle signal which can be used as a mono signal, is encoded and decoded again by means of a first encoder / decoder 402, the encoded mono signal M being written into the bit stream, as has already been mentioned several times.
  • a summation device 404 Downstream of the encoder / decoder 402 is a summation device 404 which forms the difference between the encoded / decoded mono signal " and the original mono signal M, this difference being designated M '.
  • the signals L', M ', S and R' can again be fed to a joint stereo decision device, which, however, is not shown in FIG. 4.
  • the encoder 400 presented in FIG. 4 thus operates completely in the frequency domain, the encoder / decoder 402 preferably being designed as a frequency domain encoder with a full sampling rate.
  • the stereo encoder (not shown) after the IS decision stage (also not shown in FIG. 4) is preferably also designed as a frequency domain encoder with a full sampling rate.
  • the scalable stereo encoder shown in FIG. 4 thus represents a generalization of the term "scalability", since the bit stream here does not include layers or "layers" with different audio bandwidths, but (like the other exemplary embodiments) comprises a monolayer and a stereo layer, which by a Encoders can be encoded separately.
  • An older mono decoder which is not equipped for stereo operation, can thus, for example, decode the bit stream of the coders according to the invention in order to generate at least one mono audio signal.
  • the scalable stereo encoders according to the invention are thus backwards compatible with existing monodecoders.

Description

Verfahren und Vorrichtung zum Codieren eines zeitdiskreten
Stereosignals
Beschreibung
Die vorliegende Erfindung bezieht sich auf skalierbare Au- diocodierer und insbesondere auf Verfahren und Vorrichtungen zum Codieren eines zeitdiskreten Stereosignals.
Skalierbare Audiocodierer sind Codierer, die modular aufgebaut sind. So besteht die Bestrebung, bereits bestehende Sprachcodierer zu verwenden, die Signale, die z. B. mit 8 kHz abgetastet sind, verarbeiten und Datenraten von beispielsweise 4,8 bis 8 Kilobit pro Sekunde ausgeben. Diese bekannten Codierer, wie z. B. die für Fachleute bekannten Codierer G. 729, G.723, FS1016, CELP oder parametrische Modelle des MPEG-4-Audio-VM, dienen hauptsächlich zum Codieren von Sprachsignalen und sind im allgemeinen zum Codieren von höhergualitativen Musiksignalen nicht geeignet, da sie üblicherweise für mit 8 kHz abgetastete Signale entworfen sind, weshalb sie lediglich eine Audiobandbreite von maximal 4 kHz codieren können. Sie zeigen jedoch im allgemeinen einen schnellen Betrieb und einen geringen Rechenaufwand.
Zur Audiocodierung von Musiksignalen, um beispielsweise HIFI-Qualität oder CD-Qualität zu erreichen, wird daher bei einem skalierbaren Codierer ein Sprachcodierer mit einem Audiocodierer kombiniert, der Signale mit höherer Abtastrate, wie z. B. 48 kHz, codieren kann. Selbstverständlich ist es auch möglich, den oben genannten Sprachcodierer durch einen anderen Codierer zu ersetzen, beispielsweise durch einen Musik/Audiocodierer nach den Standards MPEG1, MPEG2 oder MPEG4.
Eine derartige Kettenschaltung eines Sprachcodierers mit einem hoherwertigen Audiocodierer verwendet üblicherweise das Verfahren der Differenzcodierung im Zeitbereich. Ein Eingangssignal, das beispielsweise eine Abtastrate von 48 kHz aufweist, wird mittels eines Downsampling-Filters auf die für den Sprachcodierer geeignete Abtastfrequenz herun- ter-abgetastet. Nun wird das herunter-abgetastete Signal codiert. Das codierte Signal kann direkt einer Bitstromfor- matiereinrichtung zugeführt werden, um übertragen zu werden. Es enthält jedoch lediglich Signale mit einer Bandbreite von z. B. maximal 4 kHz. Das codierte Signal wird ferner wieder decodiert und mittels eines Upsampling-Filters herauf-ab- getastet. Das nun erhaltene Signal besitzt jedoch aufgrund des Downsampling-Filters lediglich NutzInformationen mit einer Bandbreite von beispielsweise 4 kHz . Ferner ist festzustellen, daß der Spektralgehalt des herauf-abgetasteten codierten/decodierten Signals im unteren Band bis 4 kHz nicht exakt dem ersten 4-kHz-Band des mit 48 kHz abgetasteten Eingangssignals entspricht, da Codierer im allgemeinen Codierfehler einführen.
Wie bereits erwähnt wurde, weist ein skalierbarer Codierer sowohl einen allgemein bekannten Sprachcodierer als auch einen Audiocodierer auf, der Signale mit höheren Abtastraten verarbeiten kann. Um Signalanteile des Eingangssignals übertragen zu können, deren Frequenzen über 4 kHz sind, wird eine Differenz des Eingangssignals mit 8 kHz und des codierten/decodierten, herauf-abgetasteten Ausgangssignals des Sprachcodierers für jeden einzelnen zeitdiskreten Abtastwert gebildet. Diese Differenz kann dann mittels eines bekannten Audiocodierers quantisiert und codiert werden, wie es für Fachleute bekannt ist. An dieser Stelle sei angemerkt, daß das Differenzsignal, das in den Audiocodierer, der Signale mit höheren Abtastraten codieren kann, eingespeist wird, im unteren Frequenzbereich abgesehen von Codierfehlern des Sprachcodierers sehr viel kleiner als das Original ist. In dem Spektralbereich, der oberhalb der Bandbreite -des herauf-abgetasteten codierten/decodierten Ausgangssignals des Sprachcodierers liegt, entspricht das Differenzsignal im wesentlichen dem wahren Eingangssignal, das mit z. B. 48 kHz abgetastet wurde.
In der ersten Stufe, d. h. der Stufe des Sprachcodierers, wird also zumeist ein Codierer mit niedriger Abtastfrequenz eingesetzt, da im allgemeinen eine sehr niedrige Bitrate des codierten Signals angestrebt wird. Derzeit arbeiten mehrere Codierer, auch die genannten Codierer, mit Bitraten von wenigen Kilobit (zwei bis 8 Kilobit oder auch darüber) . Dieselben ermöglichen ferner eine maximale Abtastfrequenz von 8 kHz , da ohnehin nicht mehr Audiobandbreite bei dieser geringen Bitrate möglich ist, und die Codierung bei niedriger Abtastfrequenz bezüglich des Rechenaufwands günstiger ist. Die maximal mögliche Audiobandbreite beträgt 4 kHz und ist in der Praxis auf etwa 3,5 kHz beschränkt. Soll jetzt in der weiteren Stufe, d. h. in der Stufe mit dem Audiocodierer, eine Bandbreitenverbesserung erzielt werden, muß diese weitere Stufe mit einer höheren Abtastfrequenz arbeiten. Zur Anpassung der Abtastfrequenzen werden Dezimations- und Interpolationsfilter zum Down- bzw. Upsampling eingesetzt.
Bis dato sind jedoch lediglich skalierbare Codierer für Monosignale bekannt oder implementiert. Wünschenswert wäre jedoch ein Konzept für skalierbare Audiocodierer, welche Joint-Stereo-Fähigkeiten besitzen. Unter "Joint-Stereo" sind Stereo-Codiertechniken, wie z. B. die Mitte-Seite-Codierung (M/S-Codierung) oder die Intensity-Stereo-Codierung (IS- Codierung) zu verstehen. Wenn einfach für den linken (L) und den rechten (R) Kanal eines Stereosignals jeweils ein getrennter skalierbarer Mono-Audiocodierer eingesetzt wird, kann zwar ein Stereo-Signal codiert werden, die Codierung nimmt dabei jedoch keinerlei Rücksicht auf Joint-Stereo- Techniken, welche bei der bitsparenden Codierung von Stereosignalen weitreichende Einsparungsmöglichkeiten eröffnen können .
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Verfahren und eine Vorrichtung zum Codieren eines zeit- diskreten Stereosignals zu schaffen, welche die Verwendung von Joint-Stereo-Techniken ermöglichen.
Diese Aufgabe wird durch ein Verfahren zum Codieren eines zeitdiskreten Stereosignals gemäß Anspruch 1 sowie durch eine Vorrichtung -zum Codieren eines zeitdiskreten Stereosignals gemäß Anspruch 14 gelöst.
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß eine Kombination von Joint-Stereo-Techniken mit dem Prinzip der Skalierbarkeit erreicht werden kann, wenn aus dem linken und rechten Kanal eines Stereosignals zunächst ein Monosignal gebildet wird, was vorzugsweise durch Summa- tion geschehen kann. Das Monosignal wird mittels eines ersten Codierers codiert, woraufhin das daraus entstehende Signal einem Bitstrommultiplexer zugeführt wird. Das codierte Monosignal wird ferner wieder decodiert, um ein codiertes/decodiertes Monosignal zu erhalten, das sich vom ursprünglichen Monosignal darin unterscheidet, daß es Codierfehler aufweist, die durch den ersten Codierer eingeführt worden sind. Aus diesem codierten/decodierten Monosignal und dem linken und rechten Kanal des zeitdiskreten Stereosignals können nun Stereoinformationen erzeugt werden, welche beispielsweise Mitte/Seite- (M/S-) Informationen oder Intensity-Stereo- (IS-) Informationen oder auch unter bestimmten Umständen der ursprüngliche linke Kanal oder der ursprüngliche rechte Kanal sein können. Wie es im nachfolgenden offensichtlich wird, kann auch das codierte/decodierte Monosignal selbst bzw. die Differenz des ursprünglichen Monosignals vom codierten/decodierten Monosignal als Stereoinformationen verwendet werden, um zusammen mit der Differenz aus linkem und rechtem Kanal, welche auch als S-Signal bezeichnet wird, direkt eine Mitte/Seite-Codierung zu ergeben. Die Stereoinformationen können nun mittels eines zweiten Codierers, der identisch zum ersten Codierer oder auch abweichend vom ersten Codierer aufgebaut sein kann, codiert und ebenfalls einem Bitstrommultiplexer zugeführt, welcher einen Bitstrom aus dem codierten Monosignal und den codierten Stereoinformationen sowie aus zur späteren Decodierung notwendigen Seiteninformationen erzeugt.
Das Bilden des Monosignals und das Codieren desselben kann im Zeitbereich stattfinden, wenn als erster Codierer oder Core-Codierer z. B. ein Sprachcodierer verwendet wird. Vorzugsweise findet das Bilden und Codieren von Stereoinformationen im Frequenzbereich statt, da dann auf leistungsfähige Codierer zurückgegriffen werden kann, welche nach dem psychoakustischen Modell arbeiten.
Es ist jedoch auch möglich, daß vor einer Weiterverarbeitung der linke und der rechte Kanal in den Frequenzbereich transformiert werden, was dazu führt, daß auch für die Codierung des Monosignals ein Frequenzbereichscodierer verwendet werden kann, welcher unter Verwendung des psychoakustischen Modells möglichst verzerrungsfrei codieren kann.
Wird für den ersten Codierer, d. h. für den Codierer des Monosignals, ein Codierer eingesetzt, welcher eine geringere Abtastrate aufweist als das zu codierende zeitdiskrete Stereosignal, so muß das aus der Summation von linkem und rechtem Kanal gebildete Monosignal zuerst auf die niedrigere Abtastfrequenz umgesetzt werden, was auch als Downsampling bezeichnet wird. Das auf die niedrigere Abtastfrequenz umgesetzte Monosignal wird nun codiert und wieder decodiert, wobei das codierte/decodierte Monosignal ebenfalls die niedrigere Abtastfrequenz aufweist. Um mit dem höher abgetasteten linken und rechten Kanal in Beziehung gebracht werden zu können, um Stereoinformationen zu bilden, muß das codierte/ decodierte Monosignal wieder auf die Abtastfrequenz des zeitdiskreten Stereosignals umgesetzt werden, was auch als Upsampling bezeichnet wird. Wird dieses durch Upsampling gewonnene codierte/decodierte Monosignal einer Frequenzbereichstransformation unterzogen, welche vorzugsweise als MDCT (MDCT = modifizierte diskrete Cosinustransformation) implementiert sein kann, so hat das resultierende transformierte codierte/decodierte Monosignal dieselbe Zeit- und Frequenzauflösung wie das ursprüngliche zeitdiskrete Stereosignal, d. h. der linke (L) Kanal und der rechte (R) Kanal.
Wird dagegen der erste Codierer mit der gleichen Abtastrate betrieben, die das zeitdiskrete Stereosignal hat, so kann selbstverständlich auf das Downsampling und Upsampling verzichtet werden.
Bevorzugte Ausfuhrungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Zeichnungen detaillierter erläutert. Es zeigen:
Fig. 1 einen skalierbaren Stereocodierer mit Monosignalbil- dung und -Codierung im Zeitbereich und Mitte/Seite- Codierung im Frequenzbereich gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung;
Fig. 2A einen skalierbaren Stereocodierer mit Monosignal- bildung und -Codierung im Zeitbereich und einer L/R- oder M/S-Codierung im Frequenzbereich gemäß einem zweiten Ausführungsbeiεpiel;
Fig. 2B eine detailliertere Darstellung des skalierbaren Stereocodierers von Fig. 2A;
Fig. 3 eine erweiterte Darstellung des skalierbaren Stereocodierers, der in Fig. 2A gezeigt ist, gemäß einem dritten Ausführungsbeispiel der vorliegenden Erfindung; und
Fig. 4 einen skalierbaren Stereocodierer mit Monosignalbil- dung im Zeitbereich und wahlweiser L/R- oder M/S-Codierung im Frequenzbereich.
Fig. 1 zeigt ein Prinzipblockschaltbild eines skalierbaren Stereocodierers 100 gemäß einem ersten Ausführungsbeispiel der vorliegenden Erfindung. Der skalierbare Stereocodierer empfängt ein zeitdiskretes Stereosignal, das einen ersten oder linken Kanal L sowie einen zweiten oder rechten Kanal R umfaßt. Zunächst wird aus dem Stereosignal vorzugsweise durch abtastwertweise Summation mittels eines Summierers 102 ein Summensignal gebildet, welches anschließend mittels eines Multiplizierers 104 mit dem Faktor 0,5 multipliziert wird, um bei diesem Ausfuhrungsbeispiel ein Monosignal zu erzeugen, das zu dem von der M/S-Codierung bekannten Mitte- Signal identisch ist. Das Monosignal am Ausgang des Multiplizierers 104 wird in ein Downsampling-Filter 106 eingespeist, um die Abtastrate desselben auf eine vorzugsweise niedrigere Abtastrate umzusetzen, welche eine Codierung des Monosignals mittels eines Zeitbereichscodierers, welcher Teil des Core-Codecs 108 ist, zu ermöglichen. Das codierte Monosignal wird zusammen mit entsprechenden Seiteninformationen in einen Bitstrommultiplexer 110 geschrieben, welcher an seinem Ausgang 112 einen Bitstrom erzeugt, der eine codierte Darstellung des zeitdiskreten Stereosignals ist.
Innerhalb des Core-Codecs 108 wird das codierte Monosignal wieder decodiert, um mittels eines Upsampling-Filters 114 wieder auf die erste Abtastrate umgesetzt zu werden, damit das codierte/decodierte Monosignal mit dem linken und dem rechten Kanal für eine spätere Bildung von Stereoinformationen in Beziehung gesetzt werden kann.
Das zeitdiskrete Stereosignal könnte beispielsweise mittels einer ersten Abtastrate, z. B. 48 kHz, abgetastet worden sein. Das Downsampling-Filter 106 könnte dieses Signal mit der ersten Abtastrate auf eine zweite Abtastrate von z. B. 8 kHz umsetzen. Vorzugsweise bilden die erste und die zweite Abtastrate ein ganzzahliges Verhältnis. Das Downsampling- Filter 106 kann beispielsweise als Dezimationsfilter implementiert sein. Der Core-Codec 108 könnte beispielsweise einen Sprachcodierer, wie z. B. G.729, G.723, FS1016, MPEG-4 CELP, MPEG-4 PAR, oder einen ähnlichen Codierer umfassen. Solche Codierer arbeiten bei Datenraten von 4,8 Kilobit -pro Sekunde (FS1016) bis zu Datenraten von 8 Kilobit pro Sekunde (G.729) . Für Fachleute ist es jedoch offensichtlich, daß beliebige andere Codierer mit anderen Datenraten bzw. anderen Abtastfrequenzen als Core-Codec 108 verwendet werden können.
Wird als Core-Codec ein Codierer verwendet, welcher bei 8 kHz arbeitet, so weist das codierte Monosignal maximal eine Bandbreite von 4 kHz auf, da das Downsampling-Filter 106 das Monosignal z. B. mittels Dezimation auf eine Abtastfrequenz von 8 kHz umgesetzt hat. Innerhalb der Bandbreite von 0 - 4 kHz sind nun das codierte/decodierte Monosignal und das ursprüngliche Monosignal am Eingang des Downsampling-Filters 106 abgesehen von durch den Core-Codec 108 eingeführten Codierungsfehlern gleich. Es sei jedoch angemerkt, daß die durch den Core-Codec 108 eingeführten Codierungsfehler nicht immer kleine Fehler sind, sondern daß dieselben ohne weiteres in Größenordnungen des Nutzsignals kommen können, wenn beispielsweise ein stark transientes Signal im ersten Codierer codiert wird. Aus diesem Grund wird, wie später noch erörtert wird, überprüft, ob eine Differenzcodierung überhaupt sinnvoll ist.
Das Ausgangssignal des Upsampling-Filters 114 wird nun ebenso wie der linke und der rechte Kanal mittels MDCT-Filter- bänken 116 in den Frequenzbereich umgesetzt. Die Ausgangs- signale der MDCT-Filterbänke 116 werden, wie es in Fig. 1 dargestellt ist, einer ersten frequenzselektiven Schalteinrichtung (FSS) 118a bzw. einer zweiten frequenzselektiven Schalteinrichtung 118b direkt bzw. über einen ersten Summierer 120a oder einen zweiten Summierer 120b indirekt zugeführt .
Insbesondere wird das Ausgangssignal der MDCT-Filterbank für den linken Kanal der ersten frequenzselektiven Schalteinrichtung (FSS) 118a zugeführt, welche ebenso die Summe aus dem transformierten linken Kanal und dem mit negativem Vorzeichen versehenen transformierten codierten/decodierten Monosignal empfängt. Die zweite frequenzselektive Schalteinrichtung 118b empfängt neben dem transformierten R-Kanal die Summe des transformierten R-Kanals und des mit negativem Vorzeichen versehenen codierten/decodierten Monosignals.
Die frequenzselektiven Schalteinrichtungen 118a, 118b prüfen, ob es günstiger ist, das transformierte ursprüngliche linke bzw. rechte "Signal oder die Differenz des linken bzw. rechten Signals und des codierten/decodierten Monosignals weiter zu verarbeiten. Die Funktion der frequenzselektiven Schalteinrichtung wird später näher dargestellt.
Das Ausgangssignal der ersten frequenzselektiven Schalteinrichtung 118a wird sowohl einem dritten Summierer 122a als auch einem vierten Summierer 122b mit positivem Vorzeichen zugeführt, während das Ausgangssignal der zweiten frequenzselektiven Schalteinrichtung 118b dem dritten Summierer 122a mit positivem Vorzeichen und dem vierten Summierer 122b mit negativem Vorzeichen zugeführt wird. Am Ausgang des dritten Summierers 122a liegt nun entweder die Summe des transformierten linken und rechten Kanals oder die Differenz aus der Summe des uncodierten linken und rechten Kanals und der codierten/decodierten Summe des linken und rechten Kanals vor. Dieses Signal, das nun im Gegensatz zu dem codierten Monosignal des Core-Codecs 108 Stereoinformationen aufweist, wird mittels eines M-Codierers 124 beispielsweise unter Berücksichtigung des psychoakustischen Modells codiert und dem Bitstrommultiplexer 110 zugeführt.
Am Ausgang des vierten Summierers 122b liegt hingegen die Differenz des transformierten linken und rechten Kanals vor, wobei dieses Signal in der Technik auch als Seite-Signal bezeichnet wird, das in einen S-Codierer 126 eingespeist wird, wobei der S-Codierer 126 ebenso wie der M-Codierer 124 unter Berücksichtigung des psychoakustischen Modells codieren kann. Das Ausgangssignal des S-Codierers 126 wird ebenfalls in den Bitstrommultiplexer eingespeist und umfaßt ebenfalls Stereoinformationen bezüglich des zeitdiskreten Stereosignals am Eingang des skalierbaren Stereocodierers 100 gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung. Für Fachleute ist es offensichtlich, daß ein kompletter Bitstrom Seiteninformationen benötigt. Erfindungsrelevante Seiteninformationen sind insbesondere Informationen der frequenzselektiven Schalteinrichtungen 118a und 118b bezüglich der Tatsache, in welchem Frequenzband Differenzsignale oder transformierte L- oder R-Signale an den dritten Summierer 122a bzw. an den vierten Summierer 122b ausgegeben wurden.
Im nachfolgenden werden die Funktionen einzelner Elemente, soweit sie noch nicht dargelegt wurden, näher erläutert.
Das Ausgangssignal des Core-Codecs 108 weist, wie es bereits erwähnt wurde, z. B. eine Abtastfrequenz von 8 kHz auf. Dieses Signal, d. h. das Monosignal, mit niedrigerer Abtast- rate als das ursprüngliche zeitdiskrete Stereosignal soll nun jedoch mit dem linken bzw. rechten Kanal in Beziehung gebracht werden, um Stereoinformationen zu bilden. Um vergleichbare Signale zu erhalten, muß daher das Signal mit niedrigerer Abtastrate in ein Signal mit gleicher Abtastrate wie die Abtastrate des zeitdiskreten Stereosignals umgesetzt werden.
Dies kann dadurch geschehen, daß zwischen die einzelnen zeitdiskreten Abtastwerte des codierten/decodierten Monosignals am Ausgang des Core-Codecs 108 eine bestimmte Anzahl von Nullwerten eingefügt wird. Die Anzahl der Nullwerte errechnet sich aus dem Verhältnis der ersten und der zweiten Abtastfrequenz. Das Verhältnis der ersten (hohen) zur zweiten (niedrigen) Abtastfrequenz wird als Upsampling-Fak- tor bezeichnet. Wie es bekannt ist, wird jedoch durch das Einfügen von Nullen, das mit sehr geringem Rechenaufwand möglich ist, eine Aliasing-Störung erzeugt, die sich derart auswirkt, daß das niederfrequente oder Nullspektrum des codierten/decodierten Monosignals am Ausgang des Core-Codecs 108 wiederholt wird, und zwar insgesamt so oft, wie viele Nullen eingefügt wurden. Das Aliasing-behaftete Signal wird nun mittels der MDCT-Filterbank 116 in den Frequenzbereich transformiert. Durch Einfügen von z. B. 5 Nullen zwischen jedem Abtastwert entsteht ein Signal, von dem von vorne- herein bekannt ist, daß lediglich jeder 6. Abtastwert dieses Signals von Null verschieden ist. Diese Tatsache kann beim Transformieren dieses Signals in den Frequenzbereich mittels einer Filterbank oder einer modifizierten diskreten Cosinustransformation oder mittels einer beliebigen Frequenztransformation ausgenützt werden, da beispielsweise auf bestimmte Summationen, die bei einer einfachen FFT auftreten, verzichtet werden kann. Die von vorneherein bekannte Struktur des zu transformierenden Signals kann somit auf vorteilhafte Weise zur Rechenzeiteinsparung bei einer Transformation desselben in den Frequenzbereich verwendet werden.
Das auf die erste Abtastfrequenz herauf umgesetzte codierte/decodierte Monosignal ist nur im unteren Frequenzband eine korrekte Darstellung des ursprünglichen Monosignals am Ausgang des Multiplizierers 104, weshalb am Ausgang der MDCT-Filterbank 116 nur maximal das Eins/Upsampling-Faktor- fache der gesamten Spektrallinien verwendet wird. Das Einfügen der Nullen in das codierte/decodierte Monosignal am Ausgang des Core-Codecs 108 bewirkt jedoch, daß die Spektraldarstellung des codierten/decodierten Monosignals nun dieselbe Zeit- und Frequenzauflösung wie der transformierte linke und rechte Kanal besitzt.
Nicht immer ist es günstig, eine Differenz-Verarbeitung nach den frequenzselektiven Schalteinrichtungen 118a und 118b zu verwenden. Die frequenzselektiven Schalteinrichtungen führen daher eine sog. Simulcast-Differenz-Umschaltung durch. Es ist beispielsweise dann ungünstig, ein Differenzsignal weiter zu verarbeiten, wenn das Differenzsignal eine höhere Energie als das entsprechende andere Signal am Eingang der frequenzselektiven Schalteinrichtung 118a aufweist. Da als Core-Codec 108 ein beliebiger Codierer verwendet werden kann, kann es vorkommen, daß der Codierer bestimmte durch den M-Codierer 124 bzw. durch den S-Codierer 126 schwer zu codierende Signalanteile produziert. Der Core-Codec 108 soll vorzugsweise Phaseninformationen des von ihm codierten Signals bewahren, was in der Fachwelt als "Waveform-Coding" oder "Signalform-Codieren" bezeichnet wird. Die Entscheidung, die das frequenzselektive Schaltmodul 118a oder 118b durchführt, wird vorzugsweise frequenzabhängig getroffen.
"Differenzcodierung" bedeutet, daß lediglich die Differenz des transformierten linken bzw. rechten Kanals und des transformierten codierten/decodierten Monosignals codiert wird. Falls diese Differenzcodierung jedoch nicht günstig ist, da der Energieinhalt des Differenzsignals größer als der Energieinhalt des transformierten linken oder rechten Signals ist, wird von einer Differenzcodierung abgesehen und auf Simulcast-Betrieb umgeschaltet.
Da die Differenzbildung im Frequenzbereich, d. h. selektiv spektralwertweise, stattfindet, ist es ohne weiteres möglich, eine frequenzselektive Simulcast- oder Differenzcodierung durchzuführen. Die Differenzbildung im Spektrum erlaubt somit eine einfache frequenzselektive Wahl der Frequenzbereiche, welche differenzcodiert werden sollen. Prinzipiell könnte eine Umschaltung von einer Differenz- zu einer Simulcast-Codierung für jeden Spektralwert einzeln auftreten. Dies würde jedoch eine zu große Menge an Seiteninformationen erfordern. Daher wird es bevorzugt, beispielsweise ein frequenzgruppenweises Vergleichen der Energien der Differenzspektralwerte und des transformierten linken bzw. rechten Kanals durchzuführen. Alternativ dazu können bestimmte Frequenzbänder von vorneherein festgelegt werden, z. B. 8 Bänder zu jeweils 500 kHz im Beispiel. Ein Kompromiß bei der Festlegung der Frequenzbänder besteht darin, die Menge der zu übertragenden Seiteninformationen, d. h. ob in einem Frequenzband die Differenzcodierung aktiv ist oder nicht, gegenüber dem Nutzen abzuwägen, der aus einer möglichst häufigen Differenzcodierung erwächst.
Das Bilden von Stereoinformationen aufgrund des codierten/decodierten Monosignals und des ersten und des zweiten Kanals umfaßt daher eine Bestimmung, wo es günstiger ist, den transformierten linken bzw. rechten Kanal oder eine Differenz desselben und des codierten/decodierten Monosignals zu verarbeiten. In jedem gewählten Frequenzband wird nun ein frequenzselektives Vergleichen jeweiliger Energien durchgeführt. Falls die Energie in einem bestimmten Frequenzband des Differenzsignals die Energie des anderen Signals multipliziert mit einem vorbestimmten Faktor k überschreitet, wird bestimmt, daß das Ausgangssignal der frequenzselektiven Schalteinrichtung 118a das ursprüngliche transformierte linke Signal ist. Anderenfalls wird bestimmt, daß die Differenz-Spektralwerte ausgegeben werden. Der Faktor k kann beispielsweise von etwa 0,1 bis 10 reichen. Bei Werten von k kleiner 1 wird bereits eine Simulcast-Co- dierung eingesetzt, wenn das Differenzsignal eine geringere Energie als das andere Signal aufweist. Bei Werten von k größer 1 wird dagegen weiter eine Differenzcodierung verwendet, selbst wenn der Energieinhalt des Differenzsignals bereits größer als der des ursprünglichen linken bzw. rechten Kanals ist. Alternativ zu der beschriebenen Differenzbildung kann eine Bildung von Stereoinformationen auch derart durchgeführt werden, daß z. B. ein Verhältnis oder eine sonstige Verknüpfung des codierten/decodierten Monosignals und des transformierten linken bzw. rechten Kanals implementiert wird.
Fig. 2A zeigt einen skalierbaren Stereocodierer 200 gemäß einem zweiten Ausführungsbeispiel der vorliegenden Erfindung. Gleiche Elemente tragen die gleichen Bezugszeichen und werden, wenn sie sich gleich verhalten, nicht noch einmal beschrieben. Der skalierbare Stereocodierer 200 unterscheidet sich vom skalierbaren Stereocodierer 100 gemäß dem ersten Ausführungsbeispiel der vorliegenden Erfindung im wesentlichen darin, daß wahlweise eine Mitte/Seite-Codierung oder eine L/R-Codierung durchführt werden kann.
Zu diesem Zwecke umfaßt der skalierbare Stereocodierer 200 weitere Summationseinrichtungen 202a, 202b, um aus dem transformierten linken und rechten Kanal ein Mitte-Signal M bzw. ein Seite-Signal S zu erzeugen. Das transformierte codierte/decodierte Monosignal ist hier als M' bezeichnet. Das Signal M und das Signal M' wird in eine ebenfalls zusätzliche frequenzselektive Schalteinrichtung 204 eingespeist, welche ein Signal M' ' erzeugt, wobei der frequenzselektiven Schalteinrichtung 204 ebenfalls ein Summierer 206 vorgeschaltet ist, wie es auch bei allen anderen frequenzselektiven Schalteinrichtungen der Fall ist. Der skalierbare Stereocodierer 200 umfaßt ferner einen Block Joint-Stereo- Entscheidung 208, welcher 4 Eingangssignale L' , M' ' , S und R' empfängt. Der Block Joint-Stereo-Entscheidung 208 entscheidet auf bekannte Art und Weise, ob von einem Stereocodierer 210 eine L/R-, eine M/S- oder eine Intensity-Codie- rung durchzuführen ist.
Die Funktion des skalierbaren Stereocodierers 200 sei nachfolgend dargestellt. Zunächst wird aus dem zeitdiskreten Stereosignal ein Monosignal gebildet, wobei diese Bildung im Zeitbereich stattfindet und gleichungsmäßig folgendermaßen lautet :
Mτ = (L + R) 0,5 (Gl. 1)
Der Index T soll anzeigen, daß es sich hier um ein Mitte- Signal im Zeitbereich handelt. Der Core-Codierer 108 arbeitet nun, wie es in Verbindung mit Fig. 1 dargestellt wurde. Außerdem wird ebenfalls wie in Fig. 1 eine MDCT auf die Signale L und R ausgeführt. Mittels der Summierer 202a und 202b sowie der nachgeschalteten Multiplizierer wird nun das M/S-Signal im Frequenzbereich berechnet, was in Gleichungen ausgedrückt folgendermaßen lautet:
M = (L + R) 0,5 (Gl. 2)
und
S = (L - R) 0,5 (Gl. 3) Die frequenzselektive Schalteinrichtung dient nun, wie es bereits erwähnt wurde, zur Berechnung von M". M' ' ist entweder gleich M - M' oder M selbst, wie es bereits dargestellt wurde. Die frequenzselektive Schalteinrichtung 118 berechnet das Signal L' , das entweder gleich 0,5 (L - M') oder gleich 0,5 L ist. Entsprechendes gilt für das Signal R', das entweder gleich R 0,5 oder gleich (R - M') 0,5 ist. Die Schalteinrichtungen 118a, 118b und 204 arbeiten frequenzselektiv. In dem Block Joint-Stereo-Entscheidung 208 findet nun auf übliche Weise eine Entscheidung statt, ob eine Codierung der Signale L' und R' oder M' ' oder S stattzufinden hat. Diese Funktion ist in der Technik bekannt und wird daher nicht näher dargelegt.
Fig. 2B zeigt einen skalierbaren Stereocodierer, der sich von dem skalierbaren Stereocodierer 200 gemäß dem zweiten Ausführungsbeispiel der Erfindung in einigen Punkten unterscheidet. Derselbe umfaßt als einzige Multiplizierer die beiden Multiplizierer 214a und 214b, welche nach der frequenzselektiven Schalteinrichtung 204 bzw. nach der frequenzselektiven Schalteinrichtung 118b angeordnet sind. Fig. 2B umfaßt ferner eine etwas detailliertere Darstellung der frequenzselektiven Schalteinrichtungen. Der Schalterzustand der frequenzselektiven Schalteinrichtung 118a, der als S1LR bezeichnet wird, wird zu dem Schalterzustand der frequenzselektiven Schalteinrichtung 118b, der als S'1LR bezeichnet ist, immer komplementär sein. Dasselbe gilt für zwei zusätzliche Schalter S2 und S2', welche in dem Block Joint-Stereo-Entscheidung 208 vorhanden sein können, um interne Signale L' ' und R" zu bilden.
Das Verlegen der Multiplikationen hinter die frequenzselektiven Schalteinrichtungen führt zu einer einfacheren und übersichtlichen Darstellung des Stereocodierers. Die Multiplikationen an sich werden somit nicht mehr unbedingt notwendig, sondern dieselben könnten auch im Decodierer ausgeführt werden. Zur Verringerung der zu übertragenden Sei- teninformationen ist es ferner möglich, statt der Übertragung aller Schalterzustände lediglich einige Schalterzustände zu übertragen. Wenn der Schalter S2 den Zustand a anzeigt, daß eine L/R-Codierung angewendet wird, ist es ausreichend, lediglich den Zustand der Schalter S S'., zu übertragen, wobei "die Übertragung des Zustands des Schalters S', unterbleiben kann, da dieser zu dem Zustand des Schalter S1 komplementär sein wird. Wenn S2 einen anderen Zustand, d. h. den Zustand b, einnimmt, wie es in der Zeichnung dargestellt ist, so genügt es, den Zustand S1M der frequenzselektiven Schalteinrichtung 204 zu übertragen, welche anzeigt, ob eine Differenz- oder Simulcast-Codierung des Signals M durchgeführt wird. Steht der Schalter S2 in einer Position c, so wird als Seiteninformationen übertragen, daß eine Intensity-Stereo-Codierung vorliegt, wobei in diesem Fall ebenfalls die Position des Schalters S1M übertragen wird, während hier die Positionen von S1LR und S'1LR ohne Belang sind.
Fig. 3 umfaßt ein weiteres Ausfuhrungsbeispiel 300 eines skalierbaren Stereocodierers gemäß der vorliegenden Erfindung. Das in Fig. 3 gezeigte Ausführungsbeispiel unterscheidet sich von dem in Fig. 2 gezeigten Ausführungsbeispiel im wesentlichen darin, daß das Monosignal in zwei Stufen codiert wird. Die erste Stufe wird durch den Core- Codec 108 gebildet, während die zweite Stufe durch einen Codierer/Decodierer 302 gebildet wird, welcher bei dem bevorzugten Ausführungsbeispiel im Frequenzbereich arbeitet und als psychoakustischer Frequenzbereichscodierer ausgeführt sein kann. Derselbe erhält als Eingangssignal M' ' das Ausgangssignal der frequenzselektiven Schalteinrichtung 204, wobei auch hier geprüft wird, ob eine Differenz- oder Simulcast-Codierung sinnvoll ist oder nicht. Das Ausgangssignal des Codierers/Decodierers 302 wird einem Summierer 304 zugeführt, dessen Ausgangssignal M' ' ' der Differenz des Signals M und des Ausgangssignals des Codierers/Decodierers 302 entspricht. Dieses Signal M' ' ' wird ebenso wie die Signale L' , S und R' einer Joint-Stereo-Entscheidung (nicht gezeigt) und dann einem Stereocodierer (ebenfalls nicht gezeigt) zugeführt. Der Core-Codec 108 umfaßt ebenso wie der Codierer/Decodierer 302 einen Ausgang zu dem Bitstrommultiplexer, um codierte Daten zu demselben zu übertragen. Die Ausgänge der frequenzselektiven Schalteinrichtungen zu dem Bitstrommultiplexer sollen veranschaulichen, daß Seiteninformationen der frequenzselektiven Schalteinrichtungen bezüglich der Verwendung von Differenz- und Simulcast-Co- dierung in einem Frequenzband ebenfalls dem Bitstrommultiplexer zugeführt werden müssen, um ein störungsfreies Decodieren zu ermöglichen. Der Bitstrom umfaßt bei dem in Fig. 3 gezeigten skalierbaren Stereocodierer 300 zusätzlich zu der ersten Schicht oder dem ersten Layer, der durch das codierte Monosignal des Core-Codecs 108 gebildet wird, eine zweite Schicht, die durch das codierte Signal M" am Bit- strommultiplexer-Ausgang des Codierer/Decodierers 302 gebildet wird, wobei der in Fig. 3 gezeigte Codierer 300 eine Codierung des Monosignals mit voller Abtastrate ermöglichen kann.
Im Gegensatz zu den bisher dargestellten Ausführungsbeispielen stellt Fig. 4 einen skalierbaren Audiocodierer 400 dar, der eine Monosignal-Bildung nur im Frequenzbereich durchführt. Dazu werden die Signale L und R mittels MDCT- Filterbänken 116 in den Frequenzbereich transformiert, wonach eine M/S-Matrix mittels der Summierer 202a und 202b und der nachfolgenden Multiplizierer mit dem Faktor 0,5 durchgeführt wird. Am Ausgang der Multiplizierer liegt somit einerseits ein Mitte-Signal M und andererseits ein Seite- Signal S an. Das Mitte-Signal, das als Monosignal verwendet werden kann, wird mittels eines ersten Codierers/Decodierers 402 codiert und wieder decodiert, wobei das codierte Monosignal M in den Bitstrom geschrieben wird, wie es bereits mehrfach erwähnt wurde. Dem Codierer/Decodierer 402 nachgeschaltet ist eine Summationseinrichtung 404, welche die Differenz zwischen dem codierten/decodierten Monosignal "und dem ursprünglichen Monosignal M bildet, wobei diese Differenz als M' bezeichnet ist. Die Signale L' , M' , S und R' können wieder einer Joint-Stereo-Entscheidungseinrichtung zugeführt werden, welche allerdings in Fig. 4 nicht dargestellt ist.
Der in Fig. 4 vorgestellte Codierer 400 arbeitet somit vollständig im Frequenzbereich, wobei der Codierer/Decodierer 402 vorzugsweise als Frequenzbereichscodierer mit voller Abtastrate ausgeführt ist. Der Stereocodierer (nicht gezeigt) nach der IS-Entscheidungsstufe (ebenfalls in Fig. 4 nicht gezeigt) ist vorzugsweise ebenfalls als Frequenzbereichscodierer mit voller Abtastrate ausgeführt. Der in Fig. 4 dargestellt skalierbare Stereocodierer stellt somit eine Verallgemeinerung des Begriffs "Skalierbarkeit " dar, da der Bitstrom hier keine Schichten oder "Layers" mit unterschiedlichen Audiobandbreiten sondern (ebenso wie die anderen Ausführungsbeispiele) einen Monolayer und einen Stereolayer umfaßt, welche durch einen Codierer getrennt voneinander codiert werden können. Ein älterer Monodecodierer, der nicht für einen Stereobetrieb ausgestattet ist, kann somit beispielsweise den Bitstrom der erfindungsgemäßen Codierer decodieren, um zumindest ein Monoaudiosignal zu erzeugen. Die erfindungsgemäßen skalierbaren Stereocodierer sind somit zu bestehenden Monodecodierern rückwärtskompatibel.

Claims

Patentansprüche
1. Verfahren zum Codieren eines zeitdiskreten Stereosignals, wobei das Stereosignal einen ersten und einen zweiten Kanal <L, R) aufweist, mit folgenden Schritten:
(a) Bilden eines Monosignals (M) aus dem Stereosignal;
(b) Codieren des Monosignals und Übertragen des codierten Monosignals in einen Bitstrom;
(c) Decodieren des codierten Monosignals;
(d) Bilden von Stereoinformationen aufgrund des codierten/decodierten Monosignals (M') und des ersten und zweiten Kanals (L, R) ; und
(e) Codieren der Stereoinformationen und Übertragen derselben in den Bitstrom.
2. Verfahren nach Anspruch 1, bei dem das zeitdiskrete Stereosignal eine erste Abtastrate aufweist, wobei der Schritt (a) folgende Teilschritte aufweist:
(a21) abtastwertweises Summieren des linken und des rechten Kanals (L, R) um ein Summensignal zu erhalten; und
(a22) Umsetzen des Summensignals auf eine zweite Abtastrate, die kleiner als die erste Abtastrate ist, um das Monosignal zu erhalten; und
bei dem der Schritt (c) folgende Teilschritte aufweist:
(c21) Decodieren des codierten Monosignals, das "die zweite Abtastrate aufweist; und (c22) Umsetzen des codierten/decodierten Monosignals auf die erste Abtastrate.
l. Verfahren nach einem der vorhergehenden Ansprüche, das ferner folgenden Schritt aufweist:
Transformieren des linken und des rechten Kanals und des codierten/decodierten Monosignals in den Frequenzbereich, wobei die transformierten Signale alle eine im wesentlichen gleiche Zeit- und Frequenzauflösung aufweisen.
.. Verfahren nach Anspruch 3, bei dem der Schritt (d) folgende Teilschritte aufweist:
(d41) frequenzselektives Vergleichen des transformierten linken Kanals mit der Differenz aus dem transformierten linken Kanal und dem transformierten codierten/decodierten Monosignal und Auswählen des Signals, das die kleinere gehörmäßige Entropie oder die kleinere Energie hat oder mit einer geringeren Bitzahl codierbar ist;
(d42) frequenzselektives Vergleichen des transformierten rechten Kanals mit der Differenz aus dem transformierten rechten Kanal und dem transformierten codierten/decodierten Monosignal und Auswählen des Signals, das die kleinere gehörmäßige Entropie oder die kleinere Energie hat oder mit einer geringeren Bitzahl codierbar ist;
(d43) Summieren der in den Schritten (d41) und (d42) ausgewählten Signale, um als erste Stereoinformationen ein Mitte-Signal (M) zu erhalten; und
(d44) Subtrahieren des in dem Schritt (d42) ausgewählten Signals von dem in dem Schritt (d41) ausgewählten Signal, um als zweite Stereoinformationen ein Sei- te-Signal (S) zu erhalten.
5. Verfahren nach einem der Ansprüche 1 - 3 , bei dem der Schritt (d) folgende Teilschritte aufweist:
(d51) Summieren des transformierten linken Kanals (L) und des transformierten rechten Kanals (R) , um ein Mitte-Signal (M) zu erhalten; und
(d52) Subtrahieren des transformierten rechten Kanals (R) von dem transformierten linken Kanal (L) , um ein Seite-Signal (S) zu erhalten.
6. Verfahren nach Anspruch 5, bei dem der Schritt (d) ferner folgende Teilschritte aufweist:
(d61) frequenzselektives Vergleichen des transformierten codierten/decodierten Monosignals (M') mit der Differenz aus dem Mitte-Signal (M) und dem codierten/decodierten Monosignal (M') und Auswählen des Signals mit der kleineren Energie;
(d62) frequenzselektives Vergleichen des linken Kanals mit der Differenz aus dem linken Kanal (L) und dem transformierten codierten/decodierten Monosignal (M') ; und
(d63) frequenzselektives Vergleichen des rechten Kanals mit der Differenz aus dem rechten Kanal (R) und dem transformierten codierten/decodierten Monosignal (M' ) .
7. Verfahren nach Anspruch 6, bei dem der Schritt (d) ferner folgenden Teilschritt aufweist:
(d71) Entscheiden, ob als erste und zweite Stereoinformationen die Ergebnisse der Schritte (d61) und (d52) bzw. die Ergebnisse der Schritte (d62) und (d63) verwendet werden.
8. Verfahren nach Anspruch 7, bei dem der Schritt (d) vor dem Schritt (d71) ferner folgenden Teilschritt aufweist:
(dδl) Halbieren der Ergebnisse der Schritte (d61) und (d52) .
9. Verfahren nach Anspruch 7 oder 8 , bei dem der Schritt (d) ferner folgenden Teilschritt aufweist:
(d91) falls in den Schritten (d71) die Ergebnisse der Schritte (d62) und (d63) als erste und zweite Stereoinformationen verwendet werden, Übertragen von Seiteninformationen, die entweder auf das Ergebnis des Schritts (d62) oder des Schritts (d63) hinweisen, sonst, Übertragen von Seiteninformationen, die auf das Ergebnis des Schritts (d61) hinweisen.
10. Verfahren nach einem der Ansprüche 1 - 5, bei dem der Schritt (d) ferner folgende Teilschritte aufweist:
(dlOl) frequenzselektives Vergleichen des Mitte-Signals (M) mit der Differenz aus dem Mitte-Signal (M) und dem transformierten codierten/decodierten Monosignal (M') und Auswählen des Signals mit der kleineren Energie als weiteres Monosignal;
bei dem der Schritt (b) ferner folgenden Schritt aufweist:
(blOl) Codieren des weiteren Monosignals (M'') und Übertragen des codierten weiteren Monosignals in den Bitstrom; und
(bl02) Decodieren des codierten weiteren MonosignalsT
11. Verfahren nach Anspruch 10, bei dem der Schritt (d) folgende Teilschritte aufweist:
(dlll) Subtrahieren des codierten/decodierten weiteren Monosignals (M'') von dem Mitte-Signal (M) ;
(dll2) frequenzselektives Vergleichen des transformierten linken Kanals (L) mit der Differenz des linken Kanals und dem Ergebnis des Schritts (dlll) und Auswählen des Signals mit der kleineren Energie;
(dll3) frequenzselektiveε Vergleichen des transformierten linken Kanals (L) mit der Differenz des rechten Kanals und dem Ergebnis des Schritts (dlll) und Auswählen des Signals mit der kleineren Energie; und
(dll4) Entscheiden, ob als erste und zweite Stereoinformationen die Ergebnisse der Schritte (dlll) (M"') und (d52) (S) bzw. die Ergebnisse der Schritte (dll2) (1 ) und (dll3) (R') verwendet werden.
12. Verfahren nach Anspruch 1, bei dem vor dem Schritt (a) der linke und der rechte Kanal in den Frequenzbereich transformiert werden, wobei der Schritt (a) folgenden Teilschritt aufweist:
(al21) spektralwertweises Summieren des transformierten linken und rechten Kanals, um das Monosignal (M) zu erhalten.
13. Verfahren nach Anspruch 12, bei dem der Schritt (d) folgende Teilschritte aufweist:
(dl31) Subtrahieren des codierten/decodierten Monosignals von dem Monosignal (M) ; (dl32) Subtrahieren des transformierten rechten Kanals (R) von dem transformierten linken Kanal (L) , um ein transformiertes Seite-Signal (S) zu erhalten;
(dl33) spektralwertweises Vergleichen des transformierten linken Signals (L) mit der Differenz aus dem transformierten linken Signal (L) und dem Ergebnis des Schrittes (dl31) und Auswählen des Signals mit kleinerer Energie;
(dl34) spektralwertweises Vergleichen des transformierten rechten Signals (R) mit der Differenz aus dem transformierten rechten Signal und dem Ergebnis des Schritts (dl31) und Auswählen des Signals mit kleinerer Energie; und
(dl35) Entscheiden, ob als erste und zweite Stereoinformationen die Ergebnisse der Schritte (dl33) (L') und (dl34) (R') oder die Ergebnisse der Schritte (dl31) (H') und (dl32) (S) verwendet werden.
14. Vorrichtung (100; 200; 300; 400) zum Codieren eines zeitdiskreten Stereosignals, wobei das Stereosignal einen ersten und einen zweiten Kanal (R, L) aufweist, mit folgenden Merkmalen:
(a) einer Einrichtung (102,104; 202a) zum Bilden eines Monosignals aus dem Stereosignal;
(b) einer Einrichtung (108; 402) zum Codieren des Monosignals und zum Übertragen des codierten Monosignals in einen Bitstrom;
(c) einer Einrichtung (108; 402) zum Decodieren des codierten Monosignals; ~
(d) einer Einrichtung (116, 118a, 118b, 120a, 120b, 122a, 122b; 202a, 202b, 204, 208; 214a, 214b; 302, 304; 402, 404) zum Bilden von Stereoinformationen aufgrund des codierten/decodierten Monosignals und des ersten und des zweiten Kanals; und
(e) einer Einrichtung (124, 126; 210) zum Codieren der Stereoinformationen und zum Übertragen derselben in den Bitström.
EP98932156A 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals Expired - Lifetime EP1016319B1 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19742655A DE19742655C2 (de) 1997-09-26 1997-09-26 Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
DE19742655 1997-09-26
PCT/EP1998/003605 WO1999017587A1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Publications (2)

Publication Number Publication Date
EP1016319A1 true EP1016319A1 (de) 2000-07-05
EP1016319B1 EP1016319B1 (de) 2001-08-29

Family

ID=7843796

Family Applications (1)

Application Number Title Priority Date Filing Date
EP98932156A Expired - Lifetime EP1016319B1 (de) 1997-09-26 1998-06-15 Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals

Country Status (7)

Country Link
US (1) US6629078B1 (de)
EP (1) EP1016319B1 (de)
AT (1) ATE205041T1 (de)
DE (2) DE19742655C2 (de)
DK (1) DK1016319T3 (de)
ES (1) ES2161059T3 (de)
WO (1) WO1999017587A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1233556A1 (de) * 2001-02-16 2002-08-21 Sony International (Europe) GmbH Empfänger für den Empfang von Rundfunksignalen mit Verwendung von zwei Empfängern, für den Empfang eines Rundfunksignals das auf zwei unterschiedlichen Rundfunkfrequenzen oder mit zwei unterschiedlichen Übertragungssystemen übertragen wird
BR0316611A (pt) * 2002-11-28 2005-10-11 Koninkl Philips Electronics Nv Método para codificar um sinal de áudio, codificador para codificar um sinal de áudio, e, aparelho para prover um sinal de áudio
US20060171542A1 (en) * 2003-03-24 2006-08-03 Den Brinker Albertus C Coding of main and side signal representing a multichannel signal
EP1801782A4 (de) * 2004-09-28 2008-09-24 Matsushita Electric Ind Co Ltd Vorrichtung und verfahren zur skalierbaren codierung
JP4963965B2 (ja) * 2004-09-30 2012-06-27 パナソニック株式会社 スケーラブル符号化装置、スケーラブル復号装置、及びこれらの方法
KR20070092240A (ko) * 2004-12-27 2007-09-12 마츠시타 덴끼 산교 가부시키가이샤 음성 부호화 장치 및 음성 부호화 방법
WO2006070760A1 (ja) * 2004-12-28 2006-07-06 Matsushita Electric Industrial Co., Ltd. スケーラブル符号化装置およびスケーラブル符号化方法
EP1821287B1 (de) * 2004-12-28 2009-11-11 Panasonic Corporation Audiokodierungsvorrichtung und audiokodierungsmethode
US8433581B2 (en) * 2005-04-28 2013-04-30 Panasonic Corporation Audio encoding device and audio encoding method
EP1876586B1 (de) * 2005-04-28 2010-01-06 Panasonic Corporation Audiocodierungseinrichtung und audiocodierungsverfahren
JPWO2007116809A1 (ja) * 2006-03-31 2009-08-20 パナソニック株式会社 ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
EP2048658B1 (de) * 2006-08-04 2013-10-09 Panasonic Corporation Stereoaudio-kodierungseinrichtung, stereoaudio-dekodierungseinrichtung und verfahren dafür
US9009032B2 (en) * 2006-11-09 2015-04-14 Broadcom Corporation Method and system for performing sample rate conversion
US8218775B2 (en) * 2007-09-19 2012-07-10 Telefonaktiebolaget L M Ericsson (Publ) Joint enhancement of multi-channel audio
EP2214163A4 (de) * 2007-11-01 2011-10-05 Panasonic Corp Codierungseinrichtung, decodierungseinrichtung und verfahren dafür
JP5608660B2 (ja) * 2008-10-10 2014-10-15 テレフオンアクチーボラゲット エル エム エリクソン(パブル) エネルギ保存型マルチチャネルオーディオ符号化
CN105225667B (zh) * 2009-03-17 2019-04-05 杜比国际公司 编码器系统、解码器系统、编码方法和解码方法
JP5333257B2 (ja) * 2010-01-20 2013-11-06 富士通株式会社 符号化装置、符号化システムおよび符号化方法
SG189277A1 (en) * 2010-10-06 2013-05-31 Fraunhofer Ges Forschung Apparatus and method for processing an audio signal and for providing a higher temporal granularity for a combined unified speech and audio codec (usac)
EP2544466A1 (de) * 2011-07-05 2013-01-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zur Zerlegung einer Stereoaufzeichnung mittels Frequenzdomänenverarbeitung unter Verwendung eines spektralen Subtrahieres
TWI557727B (zh) 2013-04-05 2016-11-11 杜比國際公司 音訊處理系統、多媒體處理系統、處理音訊位元流的方法以及電腦程式產品
CN110473560B (zh) 2013-09-12 2023-01-06 杜比国际公司 多声道音频内容的编码

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2090052C (en) * 1992-03-02 1998-11-24 Anibal Joao De Sousa Ferreira Method and apparatus for the perceptual coding of audio signals
GB9206860D0 (en) * 1992-03-27 1992-05-13 British Telecomm Two-layer video coder
JP2693893B2 (ja) * 1992-03-30 1997-12-24 松下電器産業株式会社 ステレオ音声符号化方法
DE4217276C1 (de) * 1992-05-25 1993-04-08 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung Ev, 8000 Muenchen, De
DE4345171C2 (de) * 1993-09-15 1996-02-01 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
DE4331376C1 (de) * 1993-09-15 1994-11-10 Fraunhofer Ges Forschung Verfahren zum Bestimmen der zu wählenden Codierungsart für die Codierung von wenigstens zwei Signalen
KR960012475B1 (ko) * 1994-01-18 1996-09-20 대우전자 주식회사 디지탈 오디오 부호화장치의 채널별 비트 할당 장치
DE4409368A1 (de) * 1994-03-18 1995-09-21 Fraunhofer Ges Forschung Verfahren zum Codieren mehrerer Audiosignale
DE19537338C2 (de) * 1995-10-06 2003-05-22 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren von Audiosignalen
US5852806A (en) * 1996-03-19 1998-12-22 Lucent Technologies Inc. Switched filterbank for use in audio signal coding
US6345246B1 (en) * 1997-02-05 2002-02-05 Nippon Telegraph And Telephone Corporation Apparatus and method for efficiently coding plural channels of an acoustic signal at low bit rates

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO9917587A1 *

Also Published As

Publication number Publication date
ES2161059T3 (es) 2001-11-16
DE19742655A1 (de) 1999-04-22
DE59801343D1 (de) 2001-10-04
WO1999017587A1 (de) 1999-04-08
DE19742655C2 (de) 1999-08-05
ATE205041T1 (de) 2001-09-15
US6629078B1 (en) 2003-09-30
EP1016319B1 (de) 2001-08-29
DK1016319T3 (da) 2001-10-08

Similar Documents

Publication Publication Date Title
EP1016319B1 (de) Verfahren und vorrichtung zum codieren eines zeitdiskreten stereosignals
EP0910928B1 (de) Codieren und decodieren von audiosignalen unter verwendung von intensity-stereo und prädiktion
DE19747132C2 (de) Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
EP0750811B1 (de) Verfahren zum codieren mehrerer audiosignale
DE602004005197T2 (de) Vorrichtung und verfahren zum kodieren eines audiosignals und vorrichtung und verfahren zum dekodieren eines kodierten audiosignals
DE602004004818T2 (de) Audiosignalcodierung oder -decodierung
DE69631728T2 (de) Verfahren und Vorrichtung zur Sprachkodierung
EP0910927B1 (de) Verfahren zum codieren und decodieren von stereoaudiospektralwerten
DE60317722T2 (de) Verfahren zur Reduzierung von Aliasing-Störungen, die durch die Anpassung der spektralen Hüllkurve in Realwertfilterbanken verursacht werden
DE69731677T2 (de) Verbessertes Kombinationsstereokodierverfahren mit zeitlicher Hüllkurvenformgebung
DE60202881T2 (de) Wiederherstellung von hochfrequenzkomponenten
EP1502255B1 (de) Vorrichtung und verfahren zum skalierbaren codieren und vorrichtung und verfahren zum skalierbaren decodieren eines audiosignales
DE60206390T2 (de) Effiziente und skalierbare parametrische stereocodierung für anwendungen mit niedriger bitrate
DE10200653B4 (de) Skalierbarer Codierer, Verfahren zum Codieren, Decodierer und Verfahren zum Decodieren für einen skalierten Datenstrom
DE4320990B4 (de) Verfahren zur Redundanzreduktion
DE60117471T2 (de) Breitband-signalübertragungssystem
WO2007073949A1 (de) Verfahren und vorrichtung zur künstlichen erweiterung der bandbreite von sprachsignalen
DE19706516C1 (de) Verfahren und Vorricntungen zum Codieren von diskreten Signalen bzw. zum Decodieren von codierten diskreten Signalen
DE60124079T2 (de) Sprachverarbeitung
EP1023777B1 (de) Verfahren und vorrichtung zur erzeugung eines bitratenskalierbaren audio-datenstroms
WO2002058054A1 (de) Verfahren und vorrichtung zum erzeugen eines skalierbaren datenstroms und verfahren und vorrichtung zum decodieren eines skalierbaren datenstroms
DE19829284C2 (de) Verfahren und Vorrichtung zum Verarbeiten eines zeitlichen Stereosignals und Verfahren und Vorrichtung zum Decodieren eines unter Verwendung einer Prädiktion über der Frequenz codierten Audiobitstroms
DE3732047C2 (de)
DE4239506A1 (de) Verfahren zur bitratenreduzierenden Quellcodierung für die Übertragung und Speicherung von digitalen Tonsignalen

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 19991116

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAG Despatch of communication of intention to grant

Free format text: ORIGINAL CODE: EPIDOS AGRA

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

17Q First examination report despatched

Effective date: 20010202

GRAH Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOS IGRA

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

ITF It: translation for a ep patent filed

Owner name: JACOBACCI & PERANI S.P.A.

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE

REF Corresponds to:

Ref document number: 205041

Country of ref document: AT

Date of ref document: 20010915

Kind code of ref document: T

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 20010829

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: GERMAN

REF Corresponds to:

Ref document number: 59801343

Country of ref document: DE

Date of ref document: 20011004

REG Reference to a national code

Ref country code: DK

Ref legal event code: T3

ET Fr: translation filed
REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2161059

Country of ref document: ES

Kind code of ref document: T3

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20011129

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20011130

REG Reference to a national code

Ref country code: CH

Ref legal event code: NV

Representative=s name: PA ALDO ROEMPLER

REG Reference to a national code

Ref country code: GB

Ref legal event code: IF02

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20020615

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20020630

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed
REG Reference to a national code

Ref country code: CH

Ref legal event code: PFA

Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWA

Free format text: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V.#LEONRODSTRASSE 54#80636 MUENCHEN (DE) -TRANSFER TO- FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWANDTEN FORSCHUNG E.V.#HANSASTRASSE 27 C#80686 MUENCHEN (DE)

REG Reference to a national code

Ref country code: CH

Ref legal event code: PCAR

Free format text: ALDO ROEMPLER PATENTANWALT;BRENDENWEG 11 POSTFACH 154;9424 RHEINECK (CH)

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 19

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 20

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20170621

Year of fee payment: 20

Ref country code: IE

Payment date: 20170622

Year of fee payment: 20

Ref country code: DK

Payment date: 20170626

Year of fee payment: 20

Ref country code: DE

Payment date: 20170621

Year of fee payment: 20

Ref country code: CH

Payment date: 20170626

Year of fee payment: 20

Ref country code: GB

Payment date: 20170626

Year of fee payment: 20

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: IT

Payment date: 20170622

Year of fee payment: 20

Ref country code: SE

Payment date: 20170626

Year of fee payment: 20

Ref country code: NL

Payment date: 20170621

Year of fee payment: 20

Ref country code: FI

Payment date: 20170620

Year of fee payment: 20

Ref country code: LU

Payment date: 20170622

Year of fee payment: 20

Ref country code: BE

Payment date: 20170621

Year of fee payment: 20

Ref country code: AT

Payment date: 20170620

Year of fee payment: 20

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 20170703

Year of fee payment: 20

REG Reference to a national code

Ref country code: DE

Ref legal event code: R071

Ref document number: 59801343

Country of ref document: DE

REG Reference to a national code

Ref country code: DK

Ref legal event code: EUP

Effective date: 20180615

REG Reference to a national code

Ref country code: NL

Ref legal event code: MK

Effective date: 20180614

REG Reference to a national code

Ref country code: GB

Ref legal event code: PE20

Expiry date: 20180614

REG Reference to a national code

Ref country code: IE

Ref legal event code: MK9A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF EXPIRATION OF PROTECTION

Effective date: 20180614

REG Reference to a national code

Ref country code: AT

Ref legal event code: MK07

Ref document number: 205041

Country of ref document: AT

Kind code of ref document: T

Effective date: 20180615

REG Reference to a national code

Ref country code: BE

Ref legal event code: MK

Effective date: 20180615

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF EXPIRATION OF PROTECTION

Effective date: 20180615

REG Reference to a national code

Ref country code: ES

Ref legal event code: FD2A

Effective date: 20201110

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF EXPIRATION OF PROTECTION

Effective date: 20180616