EP2036400A1 - Erzeugung dekorrelierter signale - Google Patents

Erzeugung dekorrelierter signale

Info

Publication number
EP2036400A1
EP2036400A1 EP08735224A EP08735224A EP2036400A1 EP 2036400 A1 EP2036400 A1 EP 2036400A1 EP 08735224 A EP08735224 A EP 08735224A EP 08735224 A EP08735224 A EP 08735224A EP 2036400 A1 EP2036400 A1 EP 2036400A1
Authority
EP
European Patent Office
Prior art keywords
audio input
input signal
signal
output signal
interval
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP08735224A
Other languages
English (en)
French (fr)
Other versions
EP2036400B1 (de
Inventor
Jürgen HERRE
Karsten Linzmeier
Harald Popp
Jan Plogsties
Harald Mundt
Sascha Disch
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP2036400A1 publication Critical patent/EP2036400A1/de
Application granted granted Critical
Publication of EP2036400B1 publication Critical patent/EP2036400B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/05Application of the precedence or Haas effect, i.e. the effect of first wavefront, in order to improve sound-source localisation

Definitions

  • the present invention relates to an apparatus and a method for generating decorrelated signals, and more particularly to how decorrelated signal from a signal containing transients can be derived such that in the reconstruction of a multi-channel audio signal or a subsequent combination of the decorrelated signal and the transient signal results in no audible signal degradation.
  • stereo signal processing applications require the generation of a decorrelated signal based on a provided audio input signal.
  • Examples include the stereo Üp mix of a mono signal, the multichannel up-mix based on a mono or stereo signal, the artificial reverb generation or the broadening of the stereo base called.
  • Figs. 7 and 8 show the use of decorrelators in signal processing. It will first be briefly discussed the mono-to-stereo decoder shown in Fig. 7.
  • the mono-to-stereo decoder serves to fed mono signal 14 into a stereo signal 16, consisting of a left channel 16a and a right channel 16b to transform. From the fed mono signal 14, the standard decorrelator 10 generates a decorrelated signal 18 (D), which is applied to the inputs of the mix matrix 12 together with the fed-in mono signal 14.
  • the untreated mono signal is often referred to as a "dry” signal, whereas the decorrelated signal D is called a "wet" signal.
  • the mix matrix 12 combines the decorrelated signal 18 and the injected mono signal 14 to produce the stereo signal 16.
  • the coefficients of the mix matrix 12 (H) can be fixed, signal-dependent or even dependent on a user input. Moreover, this mixing process performed by the mix matrix 12 may also be frequency selective. This means that different mixing operations or matrix coefficients can be used for different frequency ranges (frequency bands).
  • the fed-in mono signal 14 can be preprocessed by a filter bank so that it is present together with the decorrelated signal 18 in a filter bank representation in which the signal components belonging to different frequency bands are processed separately in each case.
  • the control of the up-mix process can be done through user interaction via a mix control 20.
  • the coefficients of the mix matrix 12 (H) can also be provided by so-called "side information", which are transmitted together with the injected mono signal 14 (the downmix)
  • the page information contains a parametric description, how the generated multi-channel signal is to be generated from the injected mono signal 14 (the transmitted signal) .
  • This spatial page information is usually provided by an encoder in front of the actual down-mix, ie the generation of the injected mono signal 14, generated.
  • FIG. 6 A typical example of a parametric stereo decoder is shown in FIG.
  • the decoder shown in FIG. 6 includes an analysis filter bank 30 and a synthesis filter bank 32. This is the case, since decorrelation is performed frequency-dependent (in the spectral domain). Therefore, first of all, the fed-in mono signal 14 is split by the analysis filter bank 30 into signal components for different frequency ranges. That is, for each frequency band, a separate decorrelated signal is generated analogously to the example described above.
  • spatial parameters 34 are transmitted which serve to determine or to vary the matrix elements of the mix matrix 12 in order to produce a mixed signal which is fed into the time domain by means of the synthesis filter bank 32 is transformed back to form the stereo signal 16.
  • the spatial parameters 34 can optionally be changed via a parameter control 36 in order to generate the up-mix or the stereo signal 16 differently for different reproduction scenarios or to adapt the quality of reproduction optimally to the respective scenario.
  • the spatial parameters 34 may be combined with parameters of the binaural filters to form the parameters controlling the mix matrix 12.
  • the parameters may be changed by direct user interaction or other tools or algorithms (see, for example: Breuer, Jeroen, Herre, Jürgen, Jin, Craig, Kjörling, Kristofer, Koppens, Jeroen, PIogisties, Jan, Villemoes, Lars : Multi-Channel Goes Mobile: MPEG Surround Binaural Rendering: AES 29th International Conference, Seoul, Korea, 2006 September 2 - 4).
  • the output of the channels L and R of the mix matrix 12 (H) is generated from the inputted mono signal 14 (M) and the decoded signal 18 (D), for example as follows:
  • the proportion of the decoded signal 18 (D) contained in the output signal is set.
  • the mixing ratio is temporally varied based on the transmitted spatial parameters 34.
  • These parameters can be, for example, parameters which describe the correlation between two original signals (parameters of this type are used, for example, in MPEG surround coding, where they are referred to inter alia as ICC).
  • parameters may be transmitted which transmit the energy relationships between two originally present channels contained in the fed mono signal 14 (ICLD or ICD in MPEG surround).
  • the matrix elements can be varied by direct user input.
  • Parametric Stereo and MPEG Surround use all-pass filters, which are filters that allow the entire spectral range to pass, but have a spectral-dependent filter characteristic.
  • Binaural Cue Coding BCC, Faller and Baumgarte, see for example: C. Faller: "Parametric Coding Of Spatial Audio", Ph. D. thesis, EPFL, 2004
  • a "group delay” is proposed for decorrelation. For this, a frequency-dependent group delay is applied to the signal by changing the phases in the DFT spectrum of the signal. So different frequency ranges are delayed for different lengths.
  • Such a method generally falls under the generic term of phase manipulations.
  • the object of the present invention is to provide an apparatus and a method for decorrelating signals, which improves the signal quality in the presence of transient signals.
  • the present invention is based on the finding that output signals which are decorrelated for transient audio input signals can be generated by mixing the audio input signal with a representation of the audio input signal delayed by a delay time in such a way that in a first time interval first output signal corresponds to the audio input signal and a second output signal of the delayed representation of the audio input signal, wherein in a second time interval corresponds to the first output signal of the delayed representation of the audio input signal and the second output signal to the audio input signal.
  • two mutually decorrelated signals are derived from an audio input signal such that a time-delayed copy of the audio input signal is first generated. Then, the two output signals are generated by mutually using the audio input signal and the delayed representation of the audio input signal for the two output signals.
  • a time delay is used which is frequency-independent and therefore does not blur the attacks of the gossip noise over time.
  • a time delay chain which has a small number of memory elements is a good compromise between the achievable spatial width of a reconstructed signal and the additional memory requirement.
  • the selected delay time is preferably less than 50 ms, particularly preferably less than or equal to 30 ms.
  • the problem of precedence is solved in that in a first time interval the audio input signal directly forms the left channel, while in the subsequent second time interval the delayed representation of the audio input signal is used as the left channel. For the right channel, the procedure applies accordingly.
  • the switching time between the individual transposition operations is chosen to be greater than the duration of a transient event typically occurring in the signal.
  • the decorrelators of the invention use only an extremely small number of arithmetic operations. In particular, only a single time delay and a small number of multiplications are required to produce decorrelated signals according to the invention.
  • the exchange of individual channels is a simple copy operation, so requires no additional computational effort.
  • optional signal conditioning or post-processing techniques require only one addition or subtraction, that is, operations that can typically be performed by existing hardware. Thus, only a small amount of additional memory for the implementation of the delay device or the delay line is required. This exists in many systems and can be shared if necessary.
  • Fig. 1 An embodiment of a decorrelator according to the invention
  • FIG. 2 shows an illustration of the decorrelated signals generated according to the invention
  • Fig. 2a shows a further embodiment of a decorrelator according to the invention
  • Fig. 2b shows embodiments of possible control signals for the decorrelator of Fig. 2a;
  • FIG. 3 shows a further embodiment of a decorrelator according to the invention.
  • 4 shows an example of a device for generating decorrelated signals
  • 5 shows an example of a method according to the invention for generating output signals
  • FIG. 6 shows an example of an audio diode according to the invention
  • Fig. 7 is an example of a prior art up-mixer
  • Fig. 8 shows another example of a prior art up-mixer / decoder.
  • FIG. 1 shows an example of a decorrelator according to the invention for generating a first output signal 50 (L ') and a second output signal 52 (R') based on an audio input signal 54 (M).
  • the decorrelator further includes a delay 56 to produce a delayed representation of the audio input signal 58 (M_d).
  • the decorrelator further includes a mixer 60 for combining the delayed representation of the audio input signal 58 with the audio input signal 54 to obtain the first output signal 50 and the second output signal 52.
  • the mixer 60 is formed by the two switches shown schematically, by means of which alternately the audio input signal 54 is switched to the left output signal 50 or the right output signal 52. The same also applies to the delayed representation of the audio input signal 58.
  • the mixer 60 of the decorrelator thus functions so that in a first time interval the first output signal 50 corresponds to the audio input signal 54 and the second output signal corresponds to the delayed representation of the audio input signal 58, wherein in a second time interval the first output signal 50 to the delayed representation of the audio input signal and the second off ⁇ output signal 52 corresponding to the input audio signal 54th
  • a decorrelation is achieved by making a time-delayed copy of the audio input channel 54, and then alternately using the audio input 54 and the delayed representation of the audio input 58 as output channels.
  • the components forming the output signals are interchanged in a clocked manner.
  • the length of the time interval, for each of which is reversed or for each of which corresponds to an input signal to the output signal variable.
  • the time intervals for which the individual components are exchanged can have different lengths. That is, the ratio of those times in which the first output signal 50 consists of the audio input signal 54 and the delayed representation of the audio input signal 58 is variably adjustable.
  • the duration of the time intervals is greater than the average duration of transient components contained in the audio input signal 54 in order to obtain a good reproduction of the signal.
  • Suitable durations are in the time interval between 10 ms and 200 ms, with a typical period of time being 100 ms, for example.
  • the duration of the time delay can be adapted to the events of the signal or even be time-variable.
  • the delay times are preferably in an interval of 2 ms to 50 ms. Examples of suitable delay times are 3, 6, 9, 12, 15 or 30 ms.
  • the decorrelator according to the invention can be used both for continuous audio signals and for sampled audio signals, ie for signals which are present as a consequence of discrete sampled values.
  • FIG. 2 shows the mode of operation of the decorrelator of FIG. 1 on the basis of such a signal present in discrete samples.
  • the audio input signal 54 consisting of a sequence of discrete sample values and the delayed representation of the audio input signal 58 are considered.
  • the mixer 60 is shown here only schematically as two possible connection paths between the audio input signal 54 and the delayed representation of the audio input signal 58 and the two output signals 50 and 52.
  • a first time interval 70 is shown, in which the first output signal 50 corresponds to the audio input signal 54 and the second output signal 52 corresponds to the delayed representation of the audio input signal 58.
  • the first output signal 50 of the delayed representation of the audio input signal 58 and the second output signal 52 correspond to the audio input signal 54.
  • the time duration of the first time interval 70 and the second time interval 72 is identical, although this is not a prerequisite, as already mentioned above.
  • the inventive concept for decorrelating signals can be applied in the time domain, ie with the temporal resolution that is given by the sample frequency.
  • Fig. 2a shows a further embodiment in which the mixer 60 is designed so that in a first time interval, the first output signal 50 to a portion X (t) from the audio input signal 54 and a portion (lX (t)) from the delayed Representation of the audio input signal 58 is formed. Accordingly, in the first time interval, the second output signal 52 is formed into a portion X (t) of the delayed representation of the audio input signal 58 and a portion (lX (t)) of the audio input signal 54.
  • Possible implementation of the function X (t) which could also be referred to as a crossfade function, are shown in FIG. 2b.
  • the mixer 60 functions to combine a delay-delayed representation of the audio input signal 58 with the audio input signal 54 to provide the first output signal 50 and the second output signal 52 with time varying portions of the audio Input signal 54 and the delayed representation of the audio input signal 58.
  • the first output signal 50 is formed into a more than 50% proportion from the audio input signal 54 and the second output signal 52 to a more than 50% proportion from the delayed representation of the audio input signal 58.
  • the first output signal 50 is off a more than 50% proportion of the delayed representation of the audio input signal 58 and the second output signal 52 are formed from a more than 50% proportion of the audio input signal.
  • Fig. 2b shows possible control functions for the mixer 60, as shown in Fig. 2a.
  • Plotted on the x-axis is the time t in arbitrary units and on the y-axis the function X (t), which has possible function values from zero to one.
  • other functions X (t) can also be used, which also need not necessarily have a value range of 0 to 1.
  • Other ranges of values, for example from 0 to 10, are conceivable.
  • a first function 66 which is shown in the form of a box, corresponds to the case described in FIG. 2 of the exchange of the channels, or the non-glare switching, which is shown schematically in FIG.
  • the first output signal 50 of FIG. 2 a looking at the first output signal 50 of FIG. 2 a, it is completely formed by the audio input signal 54 in the first time interval 62, while in the first time interval 62 the second output signal 52 is completely formed by the delayed representation of the audio input signal 58 , In the second time interval 64, the same applies vice versa, wherein the length of the time intervals does not necessarily have to be identical.
  • a second, dashed, function 58 does not completely switch the signals or generate first and second output signals 50 and 52 which at no time are formed entirely from the audio input signal 54 or the delayed representation of the audio input signal 58 , However, in the first time interval 62, the first output signal 50 is in a more than 50% proportion formed from the audio input signal 54, which also applies to the second output signal 52 accordingly.
  • a third function 69 is implemented to provide fade timings 69a-69c corresponding to the transition timings between the first time interval 62 and the second time interval 64, thus marking those times at which the audio output signals are varied this achieves a crossfade effect. That is, in a start interval and in an end interval at the beginning and end of the first time interval 62, the first output signal 50 and the second output signal 52 contain both portions of the audio input signal 58 and the delayed representation of the audio input signal.
  • the first output signal 50 corresponds to the audio input signal 54 and the second output signal 52 corresponds to the delayed representation of the audio input signal 58.
  • the steepness of the function 69 at the fade times 69a to 69c can be made wide Limits are varied to adapt the perceived reproduction quality of the audio signal to the circumstances.
  • the first output signal 50 has a more than 50% proportion of the audio input signal 54 and the second output signal 52 a more than 50% proportion of the delayed representation of the audio input signal 58, and that in a second time interval 64, the first output signal 50 includes a greater than 50% portion of the delayed representation of the audio input signal 58 and the second output signal 52 contains greater than 50% proportion of the audio input signal 54.
  • FIG. 3 shows a further exemplary embodiment of a decorrelator implementing the concept according to the invention.
  • the decorrelator shown in FIG. 3 differs from the decorrelator shown schematically in FIG. 1 in that the audio input signal 54 and the delayed representation of the audio input signal 58 may be scaled by an optional scaler 74 before being supplied to the mixer 60 ,
  • the optional scaler 74 includes a first scaler 76a and a second scaler 76b, wherein the first scaler 76a may scale the audio input 54 and the second scaler 76b may scale the delayed representation of the audio input 58.
  • the delay 56 is fed by the audio input (monophonic) 54.
  • the first scaler 76a and the second scaler 76b may optionally vary the intensity of the audio input signal and the delayed representation of the audio input signal.
  • the intensity of the temporally following signal (G_lagging), ie the delayed representation of the audio input signal 58 is increased and / or the intensity of the leading signal (G_leading), ie the audio input signal 54, is lowered.
  • the change in intensity can be carried out, for example, by means of the following simple multiplicative operations, in which a suitably chosen amplification factor is multiplied to the individual signal components:
  • the amplification factors can be chosen so that the total energy is obtained.
  • the gain factors can be defined so that they change signal-dependent.
  • the amplification factors can also be dependent on the side information, so that these are varied depending on the acoustic scenario to be reconstructed.
  • the precedence effect (the effect resulting from the time-delayed repetition of the same signal) can be compensated by varying the intensity of the direct component with respect to the delayed component so as to amplify delayed components and / or attenuate the non-delayed component.
  • the precedence effect caused by the introduced delay can thus be partially compensated for by volume adjustments (intensity adjustments) which are important for spatial hearing.
  • the delayed and non-delayed signal components are swapped at a suitable rate, that is:
  • the time interval of the exchange is preferably an integer multiple of the frame length.
  • An example of a The commutation time or commutation period is 100 ms.
  • the first output signal 50 and the second output signal 52 may be directly output as an output signal, as shown in FIG.
  • the decorrelator in Fig. 3 additionally has an optional post-processor 80 which combines the first output signal 50 and the second output signal 52 to provide at its output a post-processed output signal 82 and a second post-processed output signal 84, the post-processor may have several beneficial effects , On the one hand, it can serve to reprocess the signal for further method steps, for example a subsequent up-mix in a multi-channel reconstruction, so that an already existing decorrelator can be replaced by the decorrelator according to the invention without having to modify the rest of the signal processing chain.
  • the decorrelator shown in FIG. 3 can completely replace the prior art decorrelators or standard decorrelators 10 of FIGS. 7 and 8, thereby providing a simple way of incorporating the advantages of the decorrelators of the invention into existing decoder set-ups can be integrated.
  • the post-processor 80 is used to reduce the degree of mixing of the direct signal and the delayed signal.
  • the normal combination represented by the above formula can be modified so that, for example, substantially the first output signal 50 is scaled and used as the first post-processed output signal 82, while the second output signal 52 is used as the basis for the second post-processed output signal 84.
  • the postprocessor or the mix matrix describing the postprocessor can either be bypassed completely or the matrix coefficients which control the combination of the signals in the postprocessor 80 can be varied such that little or no additional mixing of the signals occurs ,
  • Fig. 4 shows another way to avoid the precedence effect by a suitable correlator.
  • the first and second scaler units 76a and 76b shown in FIG. 3 are obligatory, whereas the mixer 60 can be dispensed with.
  • the intensity is preferably changed as a function of the delay time of the delay device 56, so that, with a shorter delay time, a greater reduction is achieved. tion of the intensity of the audio input signal 54 is achieved.
  • the scaled signals can then be mixed arbitrarily, for example by means of a mid-page coder or one of the other blending algorithms described above, as described above.
  • the scaling of the signal thus avoids the precedence effect by reducing the intensity of the temporally leading component. Therefore, by means of a mixture, a signal can now be generated which does not blur the transient components contained in the signal over time and moreover causes no undesired distortion of the sound impression by the precedence effect.
  • FIG. 5 schematically shows an example of a method according to the invention for generating output signals based on an audio input signal 54.
  • a delay-delayed representation of the audio input signal 54 is combined with the audio input signal 54. to obtain a first output signal 52 and a second output signal 54, wherein in a first time interval the first output signal 52 corresponds to the audio input signal 54 and the second output signal corresponds to the delayed representation of the audio input signal and wherein in a second time interval the first output signal 52 of the delayed representation of the audio Input signal and the second output signal 54 corresponds to the audio input signal.
  • An audio decoder 100 includes a standard decorrelator 102 and a decorrelator 104 that corresponds to one of the above-described decorrelators of the invention.
  • the audio decoder 100 is used to generate a multi-channel output signal 106, which in the case shown has two channels by way of example.
  • the multi-channel output is generated based on an audio input signal 108, which may be a mono signal as shown.
  • the standard decorrelator 102 corresponds to the prior art known decorrelators, and the audio decoder is arranged to use standard decorrelator 102 in a standard mode of operation to provide decorrelator 104 for a transient audio input signal 108 alternatively to use.
  • the multichannel representation generated by the audio decoder becomes possible even with the presence of transient input signals or transient downmix signals with good quality.
  • the basic intention is therefore to use decorrelators according to the invention when strongly decorrelated and transient signals are to be processed. If it is possible to detect transient signals, the decorrelator according to the invention can be used as an alternative to a standard decorrelator.
  • decorrelation information for example, an ICC parameter describing the correlation between two output signals of a multichannel update mix in the MPEG-Surround standard
  • it can also be used as a decision criterion to decide which decorrelator to use.
  • outputs of the decorrelators according to the invention for example the decorrelator of FIG and 3.
  • standard decorrelators are used to ensure the best possible reproduction quality at all times.
  • the application of the decorrelators according to the invention in the audio decoder 100 is thus signal-dependent.
  • transient signal components for example LPC prediction in the signal spectrum or a comparison of the energies which are contained in the signal in the low-frequency spectral range with those in the high spectral range.
  • these detection mechanisms already exist or can be easily implemented.
  • An example of already existing indicators are the above-mentioned correlation or coherence parameters of a signal. In addition to simply detecting the presence of transient signal components, these parameters can be used to control the amount of decorrelation of the output channels produced.
  • Examples of the use of existing detection algorithms for transient signals are MPEG-Surround, where the control information of the STP tool is suitable for detection and the inter-channel coherence parameters (ICC) can be used.
  • the detection can be done both on the encoder and on the decoder side. In the former case, a signal flag or bit should be transmitted which is evaluated by the audio decoder 100 to switch between the various decorrelators. If the signal processing scheme of the audio decoder 100 is based on overlapping windows for reconstruction of the final audio signal and the overlap of the adjacent windows (frames) is large enough, a simple switch between different decorrelators can be made without introducing audible artifacts.
  • a cross-fading technique can be used in which first both decorrelators are used in parallel. The signal of the standard decorrelator 102 is then faded out in intensity during the transition to the Dekorrealator 104, while the signal of the decorrelator 104 is displayed simultaneously.
  • hysteresis switching curves can be used in the switching back and forth to ensure that after switching to a decorrelator this is used for a predetermined minimum time to prevent multiple immediate switching back and forth between the different decorrelators.
  • the decorrelators according to the invention can produce a particularly "wide" sound field
  • a specific amount of a decorrelated signal is added to a direct signal
  • the matrix coefficients of this mixed matrix are usually controlled by the above-mentioned transmitted correlation parameters or other spatial parameters
  • the width of the sound field is first artificially increased by the coefficients of the mix matrix are changed so that the broad sound impression is formed slowly, before switching to the decorrelators according to the invention in the other case the switching over from the decorrelation according to the invention In the same way, the width of the sound impression can be reduced before the actual switching takes place.
  • the decorrelators according to the invention have a number of advantages over the prior art, which come into play particularly in the reconstruction of applause-like signals, that is to say of signals which have a high transient signal component.
  • an extremely broad sound field is generated without introducing additional artifacts, which is a great advantage, in particular in the case of transient, applause-like signals.
  • the decorrelators according to the invention can be easily integrated into already existing reproduction chains or decoders and even controlled by parameters which already exist within these decoders in order to achieve the best possible reproduction of a signal. Examples of integration into such existing decoder structures have previously been called Parametric Stereo and MPEG-Surround.
  • the concept according to the invention makes it possible to provide decorrelators which only make extraordinarily small demands on the available computing power, so that, on the one hand, no expensive investment in hardware is required and, on the other hand, the additional energy consumption of the decorrelators according to the invention is negligible.
  • the inventive method generating output signals can be implemented in hardware or in software.
  • the implementation can be carried out on a digital storage medium, in particular a floppy disc or CD with electronically readable control signals, which can cooperate with a programmable computer system in such a way that the inventive method of generating output signals is executed.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method according to the invention, when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Developing Agents For Electrophotography (AREA)
  • Detergent Compositions (AREA)
  • Photoreceptors In Electrophotography (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Description

Erzeugung dekorrelierter Signale
Beschreibung
Die vorliegende Erfindung befasst sich mit einer Vorrichtung und einem Verfahren zum Erzeugen von dekorrelierten Signalen und insbesondere damit, wie dekorrelierte Signal von einem Signal, das Transienten enthält, derart abgelei- tet werden können, dass sich bei der Rekonstruktion eines Vielkanal-Audio-Signals bzw. einer späteren Kombination des dekorrelierten Signals und des Transientensignals keine hörbare Signalverschlechterung ergibt.
Viele Anwendungen im Bereich der Audiosignal-Verarbeitung erfordern das Erzeugen eines dekorrelierten Signals basierend auf einem bereitgestellten Audio-Eingangssignal. Als Beispiele seien hier der Stereo-Üp-Mix eines Monosignals, der Vielkanal-Up-Mix basierend auf einem Mono oder Stereo- Signal, die künstliche Hallerzeugung oder das Verbreitern der Stereo-Basis genannt.
Aktuelle Verfahren bzw. Systeme leiden unter einer starken Verschlechterung der Qualität bzw. des wahrnehmbaren Klang- eindrucks, wenn sie mit einer speziellen Klasse von Signalen konfrontiert werden (applaus-ähnliche Signale) . Dies ist insbesondere dann der Fall, wenn die Wiedergabe über Kopfhörer erfolgt. Darüber hinaus benutzen Standard- Dekorrelatoren Verfahren, die eine hohe Komplexität aufwei- sen, bzw. einen hohen Rechenaufwand erfordern.
Zur Verdeutlichung des Problems zeigen die Fig. 7 und 8 die Anwendung von Dekorrelatoren in der Signalbearbeitung. Dabei soll zunächst kurz auf den in Fig. 7 gezeigten Mono-zu- Stereo-Decoder eingegangen werden.
Dieser weist einen Standard-Dekorrelator 10 und eine Mix- Matrix 12 auf. Der Mono-zu-Stereo-Decoder dient dazu, ein eingespeistes Mono-Signal 14 in ein Stereo-Signal 16, bestehend aus einem linken Kanal 16a und einem rechten Kanal 16b zu verwandeln. Aus dem eingespeisten Mono-Signal 14 erzeugt der Standarddekorrelator 10 ein dekorreliertes Signal 18 (D) , welches zusammen mit dem eingespeisten Mono-Signal 14 an die Eingänge der Mix-Matrix 12 angelegt wird. In diesem Zusammenhang wird das unbehandelte Mono-Signal oft auch als „trockenes" Signal bezeichnet, wo hingegen das dekorrelierte Signal D als „nasses" Signal bezeichnet wird.
Die Mix-Matrix 12 kombiniert das dekorrelierte Signal 18 und das eingespeiste Mono-Signal 14, um das Stereosignal 16 zu erzeugen. Dabei können die Koeffizienten der Mix-Matrix 12 (H) sowohl fest vorgegeben, signalabhängig oder auch von einer Benutzereingabe abhängig sein. Darüber hinaus kann dieser Mixing-Prozess, der von der Mix-Matrix 12 durchgeführt wird, auch frequenzselektiv sein. Das heißt, unterschiedliche Misch-Operationen bzw. Matrix-Koeffizienten können für unterschiedliche Frequenzbereiche (Frequenzbän- der) angewendet werden. Dazu kann das eingespeiste MonoSignal 14 von einer Filterbank vorprozessiert sein, so dass dieses zusammen mit dem dekorrelierten Signal 18 in einer Filterbank-Repräsentation vorliegt, in der die zu verschiedenen Frequenzbändern gehörenden Signalanteile jeweils se- parat prozessiert werden.
Die Kontrolle des Up-Mix-Prozesses, also der Koeffizienten der Mix-Matrix 12, kann durch Benutzerinteraktion über eine Mix-Kontrolle 20 vorgenommen werden. Darüber hinaus können die Koeffizienten der Mix-Matrix 12 (H) auch durch sog. „Seiten-Information" (side information) erfolgen, die zusammen mit dem eingespeisten Monosignal 14 (dem Downmix) übertragen werden. Die Seiteninformation enthält dabei eine parametrische Beschreibung, wie das erzeugte Mehrkanal- Signal aus dem eingespeisten Mono-Signal 14 (dem übermittelten Signal) erzeugt werden soll. Diese räumliche Seiteninformation wird üblicherweise von einem Encoder vor dem eigentlichen Down-Mix, also dem Erzeugen des eingespeisten Mono-Signals 14, erzeugt.
Oben beschriebenes Vorgehen wird normalerweise beim para- metrischen (räumlichen) Audio-Kodieren angewendet (para- metric spatial audio coding) . Beispielsweise verwendet das sog. „parametric stereo"-Kodieren (H. Purnhagen: „Low Complexity Parametric Stereo Coding in MPEG-4", 7th International Conference on Audio Effects (DAFX-04), Naples, I- taly, October 2004) und das MPEG-Surround-Verfahren (L. Villemoes, J. Herre, J. Breebaart, G. Hotho, S. Disch, H. Purnhagen, K. Kjörling: „MPEG Surround: The forthcoming ISO Standard for spatial audio coding", AES 28th International Conference, Piteä, Sweden, 2006) ein solches Verfahren.
Ein typisches Beispiel eines parametrischen Stereo-Decoders ist in Fig. 8 gezeigt. Zusätzlich zum einfachen, nicht fre- quenz-selektiven Fall, der in Fig. 7 gezeigt ist, weist der in Fig. 6 gezeigte Decoder eine Analyse-Filterbank 30 und eine Synthese-Filterbank 32 auf. Dies ist der Fall, da hier das Dekorrelieren frequenzabhängig (in der spektralen Domäne) durchgeführt wird. Daher wird zunächst das eingespeiste Monosignal 14 von der Analyse-Filterbank 30 in Signalanteile für unterschiedliche Frequenzbereiche zerlegt. Das heißt, für jedes Frequenzband wird analog zum oben beschriebenen Beispiel ein eigenes dekorreliertes Signal erzeugt. Es werden zusätzlich zum eingespeisten Mono-Signal 14 räumliche Parameter 34 übertragen, die dazu dienen, die Matrixelemente der Mix-Matrix 12 zu bestimmen oder zu vari- ieren, um ein gemischtes Signal zu erzeugen, welches mittels der Synthesefilterbank 32 in den Zeit-Bereich zurücktransformiert wird, um das Stereo-Signal 16 zu bilden.
Zusätzlich können die räumlichen Parameter 34 optional über eine Parameterkontrolle 36 verändert werden, um den Up-Mix bzw. das Stereosignal 16 für verschiedene Wiedergabeszenarien unterschiedlich zu erzeugen bzw. die Wiederqualität optimal auf das jeweilige Szenario anzupassen. Werden bei- spielsweise die räumlichen Parameter 34 für binaurale Wiedergabe angepasst, können die räumlichen Parameter 34 mit Parametern der binauralen Filter kombiniert werden, um die die Mix-Matrix 12 steuernden Parameter zu bilden. Alterna- tiv können die Parameter durch direkte Benutzerinteraktion oder andere Werkzeuge bzw. Algorithmen verändert werden (siehe beispielsweise: Breebart, Jeroen; Herre, Jürgen; Jin, Craig; Kjörling, Kristofer; Koppens, Jeroen; PIo- gisties, Jan; Villemoes, Lars: Multi-Channel Goes Mobile: MPEG Surround Binaural Rendering. AES 29th International Conference, Seoul, Korea, 2006 September 2 - 4).
Die Ausgabe der Kanäle L und R der Mix-Matrix 12 (H) wird aus dem eingespeisten Monosignal 14 (M) und dem dekorre- lierten Signal 18 (D), beispielsweise wie folgt erzeugt:
Es wird also in der Mix-Matrix 12 der Anteil des dekorre- lierten Signals 18 (D) , der im Ausgangssignal enthalten ist, eingestellt. Dabei wird das Mischverhältnis basierend auf den übertragenen räumlichen Parametern 34 zeitlich variiert. Diese Parameter können beispielsweise Parameter sein, die die Korrelation zwischen zwei ursprünglichen Sig- nalen beschreiben (Parameter dieser Art werden beispielsweise beim MPEG-Surround Codieren verwendet und dort unter anderem mit ICC bezeichnet) . Zusätzlich werden eventuell Parameter übertragen, die die Energieverhältnisse zwischen zwei ursprünglich vorhandenen Kanälen, die im eingespeisten Mono-Signal 14 enthalten sind, übertragen (ICLD bzw. ICD in MPEG-Surround) . Alternativ oder zusätzlich können die Matrixelemente durch direkte Benutzer-Eingabe variiert werden.
Zum Erzeugen der dekorrelierten Signale werden bis dato ei- ne Reihe unterschiedlicher Verfahren verwendet. Parametric Stereo und MPEG Surround verwenden All-Pass- Filter, also Filter, die den gesamten Spektralbereich passieren lassen, jedoch eine spektral abhängige Filtercharakteristik aufweisen. In Binaural Cue Coding (BCC, Faller und Baumgarte, siehe beispielsweise: C. Faller: „Parametric Coding Of Spatial Audio", Ph. D. thesis, EPFL, 2004) wird eine „Gruppenverzögerung" zur Dekorrelation vorgeschlagen. Dazu wird eine frequenzabhängige Gruppenverzögerung auf das Signal angewendet, indem die Phasen in dem DFT-Spektrum des Signals verändert werden. Es werden also verschiedene Frequenzbereiche unterschiedlich lange verzögert. Ein solches Verfahren fällt allgemein unter den Oberbegriff der Phasen- Manipulationen.
Zusätzlich ist die Verwendung einfacher Delays, also fester Zeitverzögerungen, bekannt. Dieses Verfahren wird beispielsweise zum Erzeugen von Surround-Signalen für die hinteren Lautsprecher in Vielkanal-Konfigurationen angewendet, um diese wahrnehmungsmäßig von den Frontsignalen zu dekor- relieren. Ein typisches solches Matrix-Surround-System ist Dolby ProLogic II, welches eine Zeitverzögerung für die hinteren Audio-Kanäle zwischen 20 und 40 ms verwendet. Eine derart einfache Implementierung ist zur Erzeugung einer Dekorrelation zwischen vorderen und hinteren Lautsprechern möglich, da diese hinsichtlich des Hörerlebnisses wesentlich weniger kritisch ist als die Dekorrelation zwischen linken und rechten Kanälen. Diese hat eine wesentliche Bedeutung für die vom Hörer wahrgenommene „Breite" des rekonstruierten Signals (siehe dazu: J. Blauert: „Spatial hea- ring: The psychophysics of human sound localization"; MIT Press, Revised edition, 1997) .
Die gängigen Dekorrelationsverfahren, die vorhergehend beschrieben wurden, weisen die folgenden erheblichen Nachtei- Ie auf:
- spektrale Einfärbung des Signals (Kammfiltereffekt)
- reduzierte „Knackigkeit" des Signals störende Echo- und Halleffekte unzufriedenstellend wahrgenommene Dekorrelation bzw. unzufriedenstellende Breite der Audio-Abbildung repetitiver Klangcharakter.
Dabei hat die Erfahrung gezeigt, dass insbesondere Signale mit einer hohen zeitlichen Dichte und räumlichen Verteilung transienter Ereignisse, die zusammen mit einer breitbandi- gen rausch-artigen Signalkomponente übertragen werden, die für diese Art der Signalbearbeitung kritischsten Signale darstellen. Dies ist insbesondere für applaus-ähnliche Signale der Fall, die die vorgenannten Eigenschaften besitzen. Die Ursache dafür ist, dass durch die Dekorrelation jedes einzelne transiente Signal (Ereignis) zeitlich verschmiert werden kann, während gleichzeitig der rauschähnliche Hintergrund durch Kammfiltereffekte spektral verfärbt wird, was als Veränderung der Klangfärbung des Signals leicht wahrnehmbar ist.
Zusammengefasst erzeugen die bekannten Dekorrelationsverfahren entweder die oben beschriebenen Artefakte oder sie sind nicht in der Lage, den erforderlichen Grad an Dekorrelation zu erzeugen.
Dabei gilt es insbesondere zu beachten, dass das Abhören über Kopfhörer im Allgemeinen kritischer ist als das Abhören über Lautsprecher. Daher sind die oben beschriebenen Nachteile besonders für Applikationen relevant, die üblicherweise das Abhören mit einem Kopfhörer voraussetzen. Dies ist meist für portable Abspielgeräte der Fall, die darüber hinaus nur einen geringen Energievorrat zur Verfügung haben. In diesem Zusammenhang ist auch die Rechenkapazität, die für die Dekorrelation aufwendet werden muss, ein wichtiger Aspekt. Die meisten bekannten Dekorrelationsalgo- rithmen sind äußerst rechenintensiv. Daher erfordern sie bei einer Implementierung eine relativ hohe Anzahl von Rechenoperationen, was dazu führt, dass schnelle Prozessoren verwendet werden müssen, die unweigerlich viel Energie verbrauchen. Zusätzlich wird zur Implementierung solcher komplizierten Algorithmen eine große Menge an Speicher benötigt. Dies führt wiederum zur Erhöhung des Energiebedarfs.
Insbesondere bei der Wiedergabe von binauralen Signalen (und dem Abhören über Kopfhörer) ergeben sich eine Reihe von speziellen Problemen, die die wahrgenommene Reproduktionsqualität des wiedergegebenen Signals betreffen. Zum ei- nen ist es bei Applaussignalen besonders wichtig, den Anschlag eines jeden Klatsch-Ereignisses korrekt wiederzugeben, um das transiente Ereignis nicht zu verfälschen. Daher wird ein Dekorrelator benötigt, der den Anschlag nicht zeitlich verschmiert, der also keine zeitlich disper- sive Charakteristik aufweist. Oben beschriebene Filter, die eine frequenzabhängige Gruppenverzögerung einführen, beziehungsweise All-Pass-Filter im Allgemeinen sind dafür nicht geeignet. Zusätzlich ist es erforderlich, einen repetitiven Klangeindruck zu vermeiden, wie er beispielsweise durch ei- ne einfache Zeitverzögerung hervorgerufen wird. Sollte eine solche einfache Zeitverzögerung verwendet werden, um ein dekodiertes Signal zu erzeugen, welches daraufhin mit einer Mix-Matrix zum direkten Signal addiert wird, klingt das Ergebnis äußerst repetitiv und somit unnatürlich. Eine solche statische Verzögerung erzeugt darüber hinaus Kammfiltereffekte, also unerwünschte spektrale Verfärbungen im rekonstruierten Signal.
Bei Verwendung in einfachen Zeitverzögerungen kommt es dar- über hinaus zum bekannten Präzedenzeffekt (siehe beispielsweise: J. Blauert: „Spatial hearing: The psychophysics of human sound localization"; MIT Press, Revised edition, 1997) . Dieser rührt daher, dass es einen zeitlich führenden und einen zeitlich nachfolgenden Ausgabekanal gibt, wenn eine einfache Zeitverzögerung verwendet wird. Das menschliche Gehör nimmt den Ursprung eines Tons bzw. eines Klangs oder eines Objekts in derjenigen räumlichen Richtung wahr, aus der es das Geräusch zuerst hört. Die Signalquelle wird also in derjenigen Richtung wahrgenommen, in der zufällig der Signalanteil des zeitlich führenden Ausgabekanals (Lea- ding-Signals) wiedergegeben wird, unabhängig davon, ob die eigentlich für die räumliche Zuordnung zuständigen räumli- chen Parameter etwas anders anzeigen.
Die Aufgabe der vorliegenden Erfindung besteht darin, eine Vorrichtung und ein Verfahren zum Dekorrelieren von Signalen zu schaffen, die die Signalqualität beim Vorliegen von transienten Signalen verbessert.
Diese Aufgabe wird durch einen Dekorrelator gemäß Patentanspruch 1 und durch ein Verfahren zum Erzeugen dekorrelierter Signale gemäß Patentanspruch 16 gelöst.
Der vorliegenden Erfindung liegt dabei die Erkenntnis zugrunde, dass für transiente Audio-Eingangssignale dekorrelierte Ausgangssignale dadurch erzeugt werden können, dass das Audio-Eingangssignal mit einer um eine Verzöge- rungszeit verzögerten Repräsentation des Audio- Eingangssignals so gemischt wird, dass in einem ersten Zeitintervall ein erstes Ausgangssignal dem Audio- Eingangssignal und ein zweites Ausgangssignal der verzögerten Repräsentation des Audio-Eingangssignals entspricht, wobei in einem zweiten Zeitintervall das erste Ausgangssignal der verzögerten Repräsentation des Audio- Eingangssignals und das zweite Ausgangssignal dem Audio- Eingangssignal entspricht.
Mit anderen Worten werden von einem Audio-Eingangssignal zwei voneinander dekorrelierte Signale so abgeleitet, dass zunächst eine zeitverzögerte Kopie des Audio- Eingangssignals erzeugt wird. Dann werden die beiden Ausgangssignale dadurch erzeugt, dass das Audio-Eingangssignal und die verzögerte Repräsentation des Audio-Eingangssignals wechselseitig für die beiden Ausgangssignale verwendet werden. In einer zeitdiskreten Darstellung bedeutet dies, dass die Reihe von Sample-Werten der Ausgangssignale abwechselnd direkt vom Audio-Eingangssignal und von der verzögerten Repräsentation des Audio-Eingangssignals verwendet werden. Zum Erzeugen des dekorrelierten Signals wird dabei eine Zeitverzögerung verwendet, die frequenzunabhängig ist und daher die Anschläge der Klatschgeräusche zeitlich nicht verschmiert. Im Falle einer zeitdiskreten Darstellung ist dafür eine Zeitverzögerungskette, die eine geringe Anzahl von Speicherelementen aufweist, ein guter Kompromiss zwischen der erzielbaren räumlichen Breite eines rekonstruierten Signals und des zusätzlichen Speicherbedarfs. Die gewählte Verzögerungszeit ist bevorzugt kleiner als 50 ms, besonders bevorzugt kleiner oder gleich 30 ms.
Somit wird das Problem der Präzedenz dadurch gelöst, dass in einem ersten Zeitintervall das Audio-Eingangssignal direkt den linken Kanal bildet, während im anschließenden zweiten Zeitintervall die verzögerte Repräsentation des Au- dio-Eingangssignals als linker Kanal verwendet wird. Für den rechten Kanal gilt das Vorgehen entsprechend.
Bei einem bevorzugten Ausführungsbeispiel ist die Umschaltzeit zwischen den einzelnen Vertauschungsvorgängen größer gewählt als die Dauer eines typischerweise im Signal auftretenden transienten Ereignisse. Werden also der führende und der folgende Kanal periodisch (oder zufällig) in Intervallen (beispielsweise 100 ms Länge) vertauscht, kann bei geeigneter Wahl der Intervalllänge eine Verfälschung der Richtungsortung durch die Trägheit des menschlichen Hörapparats unterdrückt werden.
Erfindungsgemäß wird es somit also möglich, ein breites Klangfeld zu erzeugen, welches transiente Signale (bei- spielsweise Klatschen) nicht verfälscht und darüber hinaus nicht einen repetitiven Klangcharakter besitzt. Die erfindungsgemäßen Dekorrelatoren verwenden lediglich eine extrem geringe Anzahl arithmetrischer Operationen. Insbesondere sind lediglich eine einzige Zeitverzögerung und eine geringe Anzahl von Multiplikationen erforderlich, um erfindungsgemäß dekorrelierte Signale zu erzeugen. Der Austausch einzelner Kanäle ist eine einfache Kopieroperation, erfordert also keinen zusätzlichen Rechenaufwand. Optionale Signalanpassungs- bzw. Nachprozessierverfahren erfordern ebenfalls lediglich eine Addition bzw. eine Subtrakti- on, also Operationen, die typischerweise von bereits existierender Hardware übernommen werden können. Somit ist lediglich eine geringe Menge an zusätzlichem Speicher für die Implementierung der Verzögerungseinrichtung bzw. der Delay- Line erforderlich. Diese existiert in vielen Systemen und kann ggf. mitbenutzt werden.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
Fig. 1 Ein Ausführungsbeispiel eines erfindungsgemäßen Dekorrelators;
Fig. 2 eine Illustration der erfindungsgemäß erzeugten dekorrelierten Signale;
Fig. 2a zeigt ein weiteres Ausführungsbeispiels eines erfindungsgemäßen Dekorrelators;
Fig. 2b zeigt Ausführungsbeispiele möglicher Steuersignale für den Dekorrelator aus Fig. 2a;
Fig. 3 ein weiteres Ausführungsbeispiel eines erfindungsgemäßen Dekorrelators;
Fig. 4 ein Beispiel für eine Vorrichtung zum Erzeugen dekorrelierter Signale; Fig. 5 ein Beispiel eines erfindungsgemäßen Verfahrens zum Erzeugen von Ausgangssignalen;
Fig. 6 ein Beispiel für einen erfindungsgemäßen Audiode- coder;
Fig. 7 ein Beispiel für einen dem Stand der Technik entsprechenden Up-Mixer; und
Fig. 8 ein weiteres Beispiel für einen dem Stand der Technik entsprechenden Up-Mixer/Dekoder.
Fig. 1 zeigt ein Beispiel für einen erfindungsgemäßen De- korrelator zum Erzeugen eines ersten Ausgangssignals 50 (L' ) und eines zweiten Ausgangssignals 52 (R' ) , basierend auf einem Audio-Eingangssignal 54 (M) .
Der Dekorrelator enthält ferner eine Verzögerungseinrichtung 56, um eine verzögerte Repräsentation des Audio- Eingangssignals 58 (M_d) zu erzeugen. Der Dekorrelator weist ferner einen Mixer 60 zum Kombinieren der verzögerten Repräsentation des Audio-Eingangssignals 58 mit dem Audio- Eingangssignal 54 auf, um das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 zu erhalten. Der Mixer 60 wird dabei durch die beiden schematisch dargestellten Schalter gebildet, mittels derer abwechselnd das Audio- Eingangssignal 54 auf das linke Ausgangssignal 50 oder das rechte Ausgangssignal 52 geschalten wird. Selbiges gilt auch für die verzögerte Repräsentation des Audio- Eingangssignals 58. Der Mixer 60 des Dekorrelators funktioniert also so, dass in einem ersten Zeitintervall das erste Ausgangssignal 50 dem Audio-Eingangssignal 54 und das zweite Ausgangssignal der verzögerten Repräsentation des Audio- Eingangssignals 58 entspricht, wobei in einem zweiten Zeit- intervall das erste Ausgangssignal 50 der verzögerten Repräsentation des Audio-Eingangssignals und das zweite Aus¬ gangssignal 52 dem Audio-Eingangssignal 54 entspricht. Erfindungsgemäß wird eine Dekorrelation also dadurch erreicht, dass eine zeitverzögerte Kopie des Audio- Eingangskanals 54 angefertigt wird und dass daraufhin als Ausgangskanäle wechselseitig das Audio-Eingangssignal 54 und die verzögerte Repräsentation des Audio-Eingangssignals 58 verwendet werden. Es werden also die die Ausgangssignale bildenden Komponenten (Audio-Eingangssignals 54 und verzögerte Repräsentation des Audio-Eingangssignals 58) getaktet vertauscht. Dabei ist die Länge des Zeitintervalls, für die jeweils vertauscht wird bzw. für die jeweils ein Eingangssignal an dem Ausgangssignal entspricht, variabel. Darüber hinaus können die Zeitintervalle, für die die einzelnen Komponenten vertauscht werden, unterschiedliche Länge haben. Das heißt also, das Verhältnis derjenigen Zeiten, in welchen das erste Ausgangssignal 50 aus dem Audio- Eingangssignal 54 und der verzögerten Repräsentation des Audio-Eingangssignals 58 besteht, ist variabel einstellbar.
Bevorzugt ist dabei die Dauer der Zeitintervalle größer als die mittlere Dauer von Transientenanteilen, die im Audio- Eingangssignal 54 enthalten sind, um eine gute Reproduktion des Signals zu erhalten.
Geeignete Zeitdauern liegen dabei im Zeitintervall zwischen 10 ms und 200 ms, wobei eine typische Zeitdauer beispielsweise 100 ms ist.
Zusätzlich zu den Schaltzeitintervallen kann die Dauer der Zeitverzögerung an die Begebenheiten des Signals angepasst werden oder sogar zeitlich variabel sein. Bevorzugt liegen die Verzögerungszeiten in einem Intervall von 2 ms bis 50 ms. Beispiele für geeignete Verzögerungszeiten sind 3, 6, 9, 12, 15 oder 30 ms.
Mit dem in Fig. 1 gezeigten erfindungsgemäßen Dekorrelator ist es zum Einen möglich, dekorrelierte Signale zu erzeugen, die den Anschlag, also den Beginn von transienten Signalen zeitlich nicht verschmieren und darüber hinaus eine sehr hohe Dekorrelation des Signals gewährleisten, was dazu führt, dass ein Hörer ein mit Hilfe eines solchen dekorrelierten Signals rekonstruiertes Mehrkanalsignal als besonders räumlich ausgedehntes Signal wahrnimmt.
Wie anhand von Fig. 1 zu sehen ist, kann dabei der erfindungsgemäße Dekorrelator sowohl für kontinuierliche Audiosignale als auch für gesampelte Audio-Signale, also für Signale, die als Folge diskreter Abtastwerte vorliegen, an- gewendet werden.
Fig. 2 zeigt anhand eines solchen in diskreten Abtastwerten vorliegenden Signals die Funktionsweise des Dekorrelators von Fig. 1.
Dabei wird das aus einer Folge von diskreten Samplewerten vorliegende Audio-Eingangssignal 54 und die verzögerte Repräsentation des Audio-Eingangssignals 58 betrachtet. Der Mixer 60 ist hier nur schematisch als zwei mögliche Verbin- dungswege zwischen dem Audio-Eingangssignal 54 und der verzögerten Repräsentation des Audio-Eingangssignals 58 und den beiden Ausgangssignalen 50 und 52 dargestellt. Ferner ist ein erstes Zeitintervall 70 gezeigt, in dem das ersten Ausgangssignal 50 dem Audio-Eingangssignal 54 und das zwei- te Ausgangssignal 52 der verzögerten Repräsentation des Audio-Eingangssignals 58 entspricht. Der Funktionsweise des Mixers entsprechend entspricht in einem zweiten Zeitintervall 72 das erste Ausgangssignal 50 der verzögerten Repräsentation des Audio-Eingangssignals 58 und das zweite Aus- gangssignal 52 dem Audio-Eingangssignal 54.
Im in Fig. 2 gezeigtem Fall ist die Zeitdauer des ersten Zeitintervalls 70 und des zweiten Zeitintervalls 72 identisch, obwohl dies nicht Vorraussetzung ist, wie bereits oben erwähnt.
Sie beträgt im dargestellten Fall das zeitliche Äquivalent von vier Abtastwerten, so dass im Takt von vier Abtastwer- ten zwischen den beiden Signalen 54 und 58 umgeschalten wird, um das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 zu bilden.
Das Erfindungsgemäße Konzept zum Dekorrelieren von Signalen kann im Zeitbereich, also mit der zeitlichen Auflösung, die durch die Samplefrequenz gegeben ist, angewendet werden. Genauso ist es möglich, das Konzept auf eine Filterbank- Repräsentation eines Signals anzuwenden, in der das Signal (Audio-Signal) in mehrere diskrete Frequenzbereiche zerlegt ist, wobei das Signal je Frequenzbereich üblicherweise mit verringerter Zeitauflösung vorliegt.
Fig. 2a zeigt ein weiteres Ausführungsbeispiel, bei dem der Mixer 60 so ausgebildet ist, dass in einem ersten Zeitintervall das erste Ausgangssignal 50 zu einem Anteil X(t) aus dem Audioeingangssignal 54 und zu einem Anteil (l-X(t)) aus der verzögerten Repräsentation des Audio- Eingangssignals 58 gebildet wird. Dementsprechend wird im ersten Zeitintervall das zweite Ausgangssignal 52 zu einem Anteil X(t) von der verzögerten Repräsentation des Audio- Eingangssignals 58 und zu einem Anteil (l-X(t)) von dem Audio-Eingangssignal 54 gebildet. Mögliche Implementierung der Funktion X(t), die man auch als Überblend-Funktion be- zeichnen könnte, sind in Fig. 2b gezeigt. Allgemein ist dabei allen Implementierungen, dass der Mixer 60 so funktioniert, dass dieser eine um eine Verzögerungszeit verzögerte Repräsentation des Audio-Eingangssignals 58 mit dem Audio- Eingangssignal 54 kombiniert, um das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 mit zeitlich variierenden Anteilen des Audio-Eingangssignals 54 und der verzögerten Repräsentation des Audio-Eingangssignals 58 zu erhalten. Dabei ist in einem ersten Zeitintervall das erste Ausgangssignal 50 zu einem mehr als 50%igen Anteil aus dem Au- dio-Eingangssignal 54 und das zweite Ausgangssignal 52 zu einem mehr als 50%igen Anteil aus der verzögerten Repräsentation des Audio-Eingangssignals 58 gebildet. In einem zweiten Zeitintervall ist das erste Ausgangssignal 50 aus einem mehr als 50%igen Anteil der verzögerten Repräsentation des Audio-Eingangssignals 58 und das zweite Ausgangssignal 52 aus einem mehr als 50%igen Anteil des Audio- Eingangssignals gebildet.
Fig. 2b zeigt mögliche Steuerfunktionen für den Mixer 60, wie er in Fig. 2a dargestellt ist. Aufgetragen ist auf der x-Achse die Zeit t in willkürlichen Einheiten sowie auf der y-Achse die Funktion X(t), die mögliche Funktionswerte von Null bis Eins aufweist. Dabei können andere Funktionen X(t) ebenfalls verwendet werden, die auch nicht notwendigerweise einen Wertebereich von 0 bis 1 aufweisen müssen. Auch andere Wertebereiche, beispielsweise von 0 bis 10, sind vorstellbar. Dargestellt sind drei Beispiele für Funktionen X(t), die die Ausgangssignale in dem ersten Zeitintervall 62 und dem zweiten Zeitintervall 64 bestimmen.
Eine erste Funktion 66, die kastenförmig dargestellt ist, entspricht dem in Fig. 2 beschriebenen Fall des Austau- schens der Kanäle, bzw. des überblendfreien Umschaltens, das schematisch au ch in Fig. 1 dargestellt ist. Betrachtet man beispielsweise das erste Ausgangssignal 50 von Fig. 2a, so wird dieses im ersten Zeitintervall 62 vollständig vom Audio-Eingangssignal 54 gebildet, während im ersten Zeitin- tervall 62 das zweite Ausgangssignal 52 vollständig von der verzögerten Repräsentation des Audio-Eingangssignals 58 gebildet wird. Im zweiten Zeitintervall 64 gilt dasselbe umgekehrt, wobei die Länge der Zeitintervalle nicht zwingend identisch sein muss.
Eine zweite, gestrichelt dargestellte, Funktion 58 schaltet die Signale nicht vollständig um, bzw. erzeugt ein erstes und ein zweites Ausgangssignal 50 und 52, die zu keinem Zeitpunkt vollständig aus dem Audio-Eingangssignal 54 oder der verzögerten Repräsentation des Audio-Eingangssignals 58 gebildet werden. Jedoch ist im ersten Zeitintervall 62 das erste Ausgangssignal 50 zu einem mehr als 50-%igen Anteil aus dem Audio-Eingangssignal 54 gebildet, was entsprechend auch für das zweite Ausgangssignal 52 gilt.
Eine dritte Funktion 69 ist so implementiert, dass sie zu Überblendzeitpunkten 69a bis 69c, die den Übergangszeitpunkten zwischen dem ersten Zeitintervall 62 und dem zweiten Zeitintervall 64 entsprechen, die also diejenigen Zeitpunkte markieren, an denen die Audio-Ausgangssignale variiert werden, so beschaffen, dass diese einen Überblend- Effekt erzielt. Das heißt also, dass in einem Beginnintervall und in einem Endintervall am Beginn und am Ende des ersten Zeitintervalls 62 das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 sowohl Anteile des Audio- Eingangssignals 58 als auch der verzögerten Repräsentation des Audio-Eingangssignals enthalten.
In einem Zwischenzeitintervall 69 zwischen dem Beginnintervall und dem Endintervall entspricht das erste Ausgangssignal 50 dem Audio-Eingangssignal 54 und das zweite Ausgangs- signal 52 der verzögerten Repräsentation des Audio- Eingangssignals 58. Die Steilheit der Funktion 69 an den Überblendzeitpunkt 69a bis 69c kann in weiten Grenzen variiert werden, um die wahrgenommene Reproduktionsqualität des Audiosignals an die Gegebenheiten anzupassen. Dabei ist je- doch in jedem Fall sichergestellt, dass in einem ersten Zeitintervall das erste Ausgangssignal 50 einen mehr als 50%igen Anteil des Audio-Eingangssignals 54 und das zweite Ausgangssignal 52 einem mehr als 50%igen Anteil der verzögerten Repräsentation des Audio-Eingangssignals 58 enthält, und dass in einem zweiten Zeitintervall 64 das erste Ausgangssignal 50 einen mehr als 50%igen Anteil der verzögerten Repräsentation des Audio-Eingangssignals 58 und das zweite Ausgangssignal 52 einen mehr als 50%igen Anteil des Audio-Eingangssignals 54 enthält.
Fig. 3 zeigt ein weiteres Ausführungsbeispiel für einen De- korrelator, der das erfindungsgemäße Konzept implementiert. Dabei sind funktionsidentische oder ähnliche Komponenten mit denselben Bezugszeichen wie in den vorhergehenden Beispielen bezeichnet.
Allgemein gilt im Kontext der gesamten Anmeldung, dass funktionsidentische oder funktionsähnliche Komponenten mit denselben Bezugszeichen bezeichnet sind, so dass deren Beschreibung anhand der einzelnen Ausführungsbeispiele wechselseitig aufeinander anwendbar ist.
Der in Fig. 3 gezeigte Dekorrelator unterscheidet sich vom in Fig. 1 schematisch dargestellten Dekorrelator dadurch, dass das Audio-Eingangssignal 54 und die verzögerte Repräsentation des Audio-Eingangssignals 58 mittels einer optionalen Skaliereinrichtung 74 skaliert werden können, bevor diese dem Mixer 60 zugeführt werden. Die optionale Skaliereinrichtung 74 weist dabei einen ersten Skalierer 76a und einen zweiten Skalierer 76b auf, wobei der erste Skalierer 76a das Audio-Eingangssignal 54 und der zweite Skalierer 76b die verzögerte Repräsentation des Audio-Eingangssignals 58 skalieren kann.
Die Verzögerungseinrichtung 56 wird von dem Audio- Eingangssignal (monophonisch) 54 gespeist. Der erste Skalierer 76a und der zweite Skalierer 76b können optional die Intensität des Audio-Eingangssignals und der verzögerten Repräsentation des Audio-Eingangssignals variieren. Bevorzugt wird dabei die Intensität des zeitlich folgenden Signals (G_lagging) , also der verzögerten Repräsentation des Audio-Eingangssignals 58 erhöht und/oder die Intensität des führenden Signals (G_leading) , also des Audio- Eingangssignals 54, erniedrigt. Die Änderung der Intensität kann dabei beispielsweise anhand der folgenden einfachen multiplikativen Operationen vorgenommen werden, bei denen ein geeignet gewählter Verstärkungsfaktor an die einzelnen Signalkomponenten multipliziert wird:
L'=M*G_leading R'=M_d*G_lagging Die Verstärkungsfaktoren können dabei so gewählt werden, dass die Gesamtenergie erhalten ist. Zusätzlich können die Verstärkungsfaktoren so definiert sein, dass diese sich signalabhängig verändern. Im Falle von zusätzlich übertragender Seiteninformation, also beispielsweise bei Vielkanal-Audiorekonstruktion, können die Verstärkungsfaktoren auch von der Seiteninformation abhängig sein, so dass diese abhängig von dem zu rekonstruierenden akustischen Szenario variiert werden.
Durch die Applikation von Gain-Faktoren bzw. Verstärkungsfaktoren und durch die Variation der Intensität des Audio- Eingangssignals 54 bzw. der verzögerten Repräsentation des Audio-Eingangssignals 58 kann der Präzedenzeffekt (der Effekt, der sich aus der zeitlich verzögerten Wiederholung desselben Signals ergibt) kompensiert werden, indem die Intensität der direkten Komponente bezüglich der verzögerten Komponente so verändert wird, dass verzögerte Komponenten verstärkt und/oder die nicht-verzögerte Komponente abgeschwächt wird. Der durch die eingeführte Verzögerung hervorgerufene Präzedenzeffekt kann also durch Lautstärkeanpassungen (Intensitätsanpassungen), die für das räumliche Hören wichtig sind, teilweise ausgeglichen werden.
Wie im obigen Fall werden die verzögerte und die nicht- verzögerte Signalkomponente (das Audio-Eingangssignal 54 und die verzögerte Repräsentation des Audio-Eingangssignals 58) mit einer geeigneten Rate vertauscht, das heißt:
I/ = M und R' = M_d in einem ersten Zeitintervall und L' = M_d und R' = M in einem zweiten Zeitintervall.
Wird das Signal in Frames, also in diskreten Zeitabschnit- ten konstanter Länge, verarbeitet, ist das Zeitintervall des Vertauschens (Vertauschungsrate) bevorzugt ein ganzzahliges Vielfaches der Frame-Länge. Ein Beispiel für eine ty- pische Vertauschungszeit oder Vertauschungsperiode ist 100 ms .
Das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 können direkt als Ausgangssignal ausgegeben werden, wie in Fig. 1 gezeigt. Wenn die Dekorrelation auf Grundlage von transformierten Signalen stattfindet, ist nach der Dekorre- lation selbstverständlich eine Rücktransformation erforderlich. Der Dekorrelator in Fig. 3 weist zusätzlich einen optionalen Nachprozessor 80 auf, der das erste Ausgangssignal 50 und das zweite Ausgangssignal 52 kombiniert, um an seinem Ausgang ein nachprozessiertes Ausgangssignal 82 und ein zweites nachprozessiertes Ausgangssignal 84 bereitzustellen, der Nachprozessor kann dabei mehrere vorteilhafte Wirkungen aufweisen. Zum einen kann er dazu dienen, dass Signal für weitere Verfahrensschritte, beispielsweise einen darauffolgenden Up-Mix in einer Mehrkanalrekonstruktion so aufzubereiten, dass ein bereits existierender Dekorrelator durch den erfindungsgemäßen Dekorrelator ersetzt werden kann, ohne den Rest der Signalverarbeitungskette verändern zu müssen.
So kann beispielsweise der in Fig. 3 gezeigte Dekorrelator die dem Stand der Technik entsprechenden Dekorrelatoren bzw. die Standarddekorrelatoren 10 der Fig. 7 und 8 vollständig ersetzen, wodurch die Vorteile der erfindungsgemäßen Dekorrelatoren auf einfache Art und Weise in bereits existierende Dekoder-Set-ups integriert werden können.
Ein Beispiel für eine Signalnachbearbeitung, wie sie durch den Nachprozessor 80 durchgeführt werden kann, ist anhand der folgenden Gleichungen gegeben, welche eine Mitte-Seite (MS) -Codierung beschreiben:
M=0.707*(L'+R') D=0,707*(L'-R') In einem weiteren Ausführungsbeispiel wird der Nachprozessor 80 dazu verwendet, den Grad der Vermischung des direkten Signals und des verzögerten Signals zu verringern. Da- bei kann die anhand der obigen Formel dargestellte normale Kombination modifiziert werden, so dass beispielsweise im Wesentlichen das erste Ausgangssignal 50 skaliert und als erstes nachprozessiertes Ausgangssignal 82 verwendet wird, während das zweite Ausgangssignal 52 als Grundlage für das zweite nachprozessierte Ausgangssignal 84 verwendet wird. Der Nachprozessor bzw. die den Nachprozessor beschreibende Mix-Matrix kann dabei entweder vollständig umgangen werden oder die Matrix-Koeffizienten, die die Kombination der Signale im Nachprozessor 80 steuern, können so variiert wer- den, dass nur wenig oder keine zusätzliche Mischung der Signale auftritt.
Fig. 4 zeigt eine weitere Möglichkeit, den Präzedenz-Effekt durch eine geeignete Korrelator zu vermeiden. Dabei sind die im Fig. 3 gezeigten ersten und zweiten Skaliereinheiten 76a und 76b obligatorisch, wo hingegen der Mixer 60 entfallen kann.
Dabei wird, in Analogie zum oben beschriebenen Fall entwe- der das Audio-Eingangssignal 54 und/oder die verzögerte
Repräsentation des Audio-Eingangssignals 58 verändert bzw. in seiner Intensität variiert. Um den Präzedenz-Effekt zu verhindern, werden entweder die Intensität der verzögerten
Repräsentation des Audio-Eingangssignals 58 erhöht und/oder die Intensität des Audio-Eingangssignals 54 erniedrigt, wie es den folgenden Gleichungen zu entnehmen ist:
L'=M*G_leading R'=M_d*G_lagging
Dabei wird die Intensität bevorzugt in Abhängigkeit von der Verzögerungszeit der Verzögerungseinrichtung 56 verändert, so dass bei kürzerer Verzögerungszeit eine größere Verrin- gerung der Intensität des Audio-Eingangssignals 54 erreicht wird.
Vorteilhafte Kombinationen von Verzögerungszeiten und dazugehörigen Verstärkungsfaktoren sind in der folgenden Tabelle zusammengefasst :
Die skalierten Signale können dann beliebig gemischt werden, beispielsweise mittels eines oben beschriebenen Mitte- Seite-Codierers oder eines der anderen Misch-Algorithmen, die im Vorhergehenden beschrieben wurden.
Durch die Skalierung des Signals wird also der Präzedenzef- fekt vermieden, indem die zeitlich vorauseilende Komponente in der Intensität verringert wird. Daher kann mittels einer Mischung nun ein Signal erzeugt werden, welches die im Signal enthaltenden Transientenanteile nicht zeitlich verschmiert und darüber hinaus keine unerwünschte Verfälschung des Klangeindrucks durch den Präzedenz-Effekt hervorruft.
Fig. 5 zeigt schematisch ein Beispiel für ein erfindungsge- mäßes Verfahren zum Erzeugen von Ausgangssignalen, basierend auf einem Audio-Eingangssignal 54. In einem Kombinationsschritt 90 wird eine um eine Verzögerungszeit verzögerte Repräsentation des Audio-Eingangssignals 54 mit dem Audio- Eingangssignal 54 kombiniert, um ein erstes Ausgangssignal 52 und ein zweites Ausgangssignal 54 zu erhalten, wobei in einem ersten Zeitintervall das erste Ausgangssignal 52 dem Audio-Eingangssignal 54 und das zweite Ausgangssignal der verzögerten Repräsentation des Audio-Eingangssignals entspricht und wobei in einem zweiten Zeitintervall das erste Ausgangssignal 52 der verzögerten Repräsentation des Audio- Eingangssignals und das zweite Ausgangssignal 54 dem Audio- Eingangssignal entspricht.
Fig. 6 zeigt die Anwendung des erfindungsgemäßen Konzepts in einem Audio-Decoder. Ein Audio-Decoder 100 umfasst einen Standard-Dekorrelator 102 und einen Dekorrelator 104, der einem der im Vorhergehenden beschriebenen erfindungsgemäßen Dekorrelatoren entspricht. Der Audiodecoder 100 dient dem Erzeugen eines mehrkanaligen Ausgangssignals 106, welches im gezeigten Fall beispielhaft zwei Kanäle aufweist. Das mehrkanalige Ausgangssignal wird basierend auf einem Audio- Eingangssignal 108 erzeugt, das, wie gezeigt, ein MonoSignal sein kann. Der Standard-Dekorrelator 102 entspricht den im Stand der Technik bekanten Dekorrelatoren und der Audio-Decoder ist so beschaffen, dass dieser im einem Stan- dardbetriebs-Modus den Standard-Dekorrelator 102 verwendet, um bei einem Transienten-Audio-Eingangssignal 108 den Dekorrelator 104 alternativ zu verwenden. So wird die vom Audio-Decoder erzeugte Mehrkanalrepräsentation auch bei Vor- liegen von transienten Eingangssignalen bzw. transienten Downmix-Signalen mit guter Qualität möglich.
Die grundlegende Intention ist also, erfindungsgemäße Dekorrelatoren anzuwenden, wenn stark dekorrelierte und tran- siente Signale verarbeitet werden sollen. Wenn die Möglichkeit besteht, transiente Signale zu erkennen, kann der erfindungsgemäße Dekorrelator alternativ zu einem Standard- Dekorrelator eingesetzt werden.
Wenn zusätzlich Dekorrelationsinformation zur Verfügung steht (beispielsweise ein ICC-Parameter, der im MPEG- Surround-Standard die Korrelation zwischen zwei Ausgangssignalen eines Vielkanaldownmixes beschreibt) , kann diese zusätzlich als Entscheidungskriterium verwendet werden, um zu entscheiden, welcher Dekorrelator verwendet werden soll. So können beispielsweise bei kleinen ICC-Werten (beispielsweise Werten kleiner 0,5) Ausgänge der erfindungsgemäßen Dekorrelatoren (beispielsweise des Dekorrelators der Fig. 1 und 3) verwendet werden. Für nicht-transiente Signale (beispielsweise tonale Signale) werden also Standard- Dekorrelatoren verwendet, um zu jeder Zeit die bestmögliche Reproduktionsqualität sicherzustellen.
Die Anwendung der erfindungsgemäßen Dekorrelatoren im Audiodecoder 100 ist also signalabhängig. Wie oben erwähnt, existieren Möglichkeiten der Detektion von transienten Signalanteilen (beispielsweise LPC-Prädiktion im Signalspekt- rum oder ein Vergleich der Energien, die im niederfrequenten Spektralbereich im Signal enthalten sind mit denjenigen im hohen Spektralbereich) . In vielen Decodier-Szenarien sind diese Detektionsmechanismen bereits vorhanden oder können einfach implementiert werden. Ein Beispiel für be- reits vorhandene Indikatoren sind die oben erwähnten Korrelations- oder Kohärenzparameter eines Signals. Zusätzlich zur einfachen Erkennung des Vorhandenseins von transienten Signalanteilen können diese Parameter verwendet werden, um die Stärke der Dekorrelation der erzeugten Ausgangskanäle zu steuern.
Beispiele für die Verwendung bereits existierender Detekti- onsalgorithmen für transiente Signale sind MPEG-Surround, wo die Steuerinformation des STP-Werkzeuges zur Detektion geeignet ist und die Zwischen-Kanal-Kohärenz-Parameter (ICC) verwendet werden können. Die Detektion kann dabei sowohl auf der Encoder als auf der Decoderseite erfolgen. Im erstgenannten Fall wäre ein Signal-Flag oder Bit zu übermitteln, welches vom Audio-Decoder 100 ausgewertet wird, um zwischen den verschiedenen Dekorrelatoren hin und her zu schalten. Wenn das Signalverarbeitungsschema des Audiodecoders 100 auf überlappenden Fenstern zur Rekonstruktion des endgültigen Audiosignals basiert und die Überlappung der benachbarten Fenster (Frames) groß genug ist, kann eine einfache Umschaltung zwischen verschiedenen Dekorrelatoren erfolgen, ohne dass dies zur Einführung hörbarer Artefakte führt. Ist dies nicht der Fall, können verschiedene Maßnahmen ergriffen werden, um einen annäherungsweise unhörbaren Übergang zwischen den unterschiedlichen Dekorrelatoren zu ermöglichen. Dabei kann zum einen eine Überblend-Technik ver- wendet werden, bei der zunächst beide Dekorrelatoren parallel verwendet werden. Das Signal des Standarddekorrelators 102 wird dann beim Übergang zum Dekorrealator 104 intensitätsmäßig langsam ausgeblendet, während das Signal des De- korrelators 104 simultan eingeblendet wird. Darüber hinaus können beim hin- und herschalten Hystereseschaltkurven verwendet werden, die sicherstellen, dass nach erfolgter Um- schaltung auf einen Dekorrelator dieser für eine vorbestimmte Mindestzeit verwendet wird, um mehrmaliges unmittelbares Hin- und Herschalten zwischen den verschiedenen Dekorrelatoren zu verhindern.
Zusätzlich zu Lautstärkeeffekten kann es zu anderen wahrnehmungspsychologischen Effekten kommen, wenn unterschiedliche Dekorrelatoren verwendet werden.
Dies ist insbesondere der Fall, da die erfindungsgemäßen Dekorrelatoren einen besonders „breites" Klangfeld erzeugen können. In einer nachgeschalteten Mix-Matrix, wird bei der Vielkanal-Audio-Rekonstruktion einem direkten Signal eine bestimmte Menge eines dekorrelierten Signals zugemischt. Dabei bestimmt die Menge des dekorrelierten Signals bzw. die Dominanz des dekorrelierten Signals im erzeugten Ausgangssignal üblicherweise die Breite des wahrgenommenen Klangfelds. Die Matrixkoeffizienten dieser Misch-Matrix (Mix-Matrix) werden dabei üblicherweise von den oben erwähnten übertragenen Korrelationsparametern bzw. anderen räumlichen Parametern gesteuert. Daher kann vor dem Umschalten auf einen erfindungsgemäßen Dekorrelator die Breite des Klangfeldes zunächst künstlich erhöht werden, indem die Koeffizienten der Mix-Matrix so verändert werden, dass der breite Klangeindruck langsam entsteht, bevor auf die erfindungsgemäßen Dekorrelatoren umgeschalten wird. Im anderen Fall des Umschaltens vom erfindungsgemäßen Dekorrela- tor kann auf dieselbe Art und Weise die Breite des Klangeindrucks verringert werden, bevor die eigentliche Umschal- tung erfolgt.
Natürlich können oben beschriebene Umschaltszenarien auch kombiniert werden, um einen besonders weichen Übergang zwischen verschiedenen Dekorrelatoren zu erzielen.
Zusammenfassend weisen die erfindungsgemäßen Dekorrelatoren gegenüber dem Stand der Technik eine Reihe von Vorteilen auf, die insbesondere bei der Rekonstruktion applausähnlicher Signale, also von Signalen, die einen hohen transien- ten Signalanteil aufweisen, zum Tragen kommen. So wird zum einen ein extrem breites Klangfeld erzeugt, ohne zusätzli- che Artefakte einzuführen, was insbesondere im Fall von transienten, applausähnlichen Signalen ein großer Vorteil ist. Wie mehrfach gezeigt, können die erfindungsgemäßen Dekorrelatoren einfach in bereits existierende Wiedergabeketten bzw. Decoder integriert werden und sogar von Parame- tern, die innerhalb dieser Decoder schon vorhanden sind, gesteuert werden, um die bestmögliche Reproduktion eines Signals zu erzielen. Als Beispiele für die Integration in solche existierenden Decoder-Strukturen wurden vorher bereits Parametric Stereo und MPEG-Surround genannt. Darüber hinaus schafft es das erfindungsgemäße Konzept, Dekorrelatoren zur Verfügung zu stellen, die nur außerordentlich geringe Anforderungen an die verfügbare Rechenleistung stellen, so dass zum einen keine teure Investition in Hardware erforderlich ist und zum anderen der zusätzliche Energie- verbrauch der erfindungsgemäßen Dekorrelatoren vernachlässigbar ist.
Obwohl im Vorhergehenden hauptsächlich anhand von diskreten Signalen, also Audio-Signalen, die durch eine Folge von diskreten Abtastwerten repräsentiert werden, argumentiert wurde, dient dies lediglich dem besseren Verständnis. Das erfindungsgemäße Konzept ist ebenso auf kontinuierliche Audiosignale anwendbar, so wie auf andere Darstellungen von Audiosignalen, beispielsweise von Parameterrepräsentationen in frequenztransformierten Darstellungsräumen.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren Erzeugen von Ausgangssignalen in Hardware oder in Software implementiert werden. Die Implementation kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zu- sammenwirken können, dass das erfindungsgemäße Verfahren Erzeugen von Ausgangssignalen ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer- Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfin- dungsgemäßen Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer ab- läuft.

Claims

Patentansprüche
1. Dekorrelator zum Erzeugen von Ausgangssignalen (50, 52) basierend auf einem Audio-Eingangssignal (54), mit folgenden Merkmalen:
einem Mixer (60) zum Kombinieren einer um eine Verzögerungszeit verzögerten Repräsentation des Audio- Eingangssignals (58) mit dem Audio-Eingangssignal (54), um ein erstes (50) und ein zweites (52) Ausgangssignal mit zeitlich variierenden Anteilen des Audio-Eingangssignals (54) und der verzögerten Repräsentation des Audio-Eingangssignals (58) zu erhalten, wobei
in einem ersten Zeitintervall (70) das erste Ausgangssignal (50) einen mehr als 50-prozentigen Anteil des Audio-Eingangssignals (54) und das zweite Ausgangssignal (52) einen mehr als 50- prozentigen Anteil der verzögerten Repräsentation des Audio-Eingangssignals (58) enthält, und wobei
in einem zweiten Zeitintervall (72) das erste Ausgangssignal (50) einen mehr als 50-prozentigen Anteil der verzögerten Repräsentation des Audio-
Eingangssignals (58) und das zweite Ausgangssignal (52) einen mehr als 50-prozentigen Anteil des Audio-Eingangssignal (54) enthält.
2. Dekorrelator gemäß Patentanspruch 1, bei dem in dein ersten Zeitintervall (70) das erste Ausgangssignal dem Audio-Eingangssignal (54) und das zweite Ausgangssignal (52) der verzögerten Repräsentation des Audio- Eingangssignals (58) entspricht, wobei
in dem zweiten Zeitintervall (72) das erste Ausgangssignal (50) der verzögerten Repräsentation des Audio- Eingangssignals (58) und das zweite Ausgangssignal (52) dem Audio-Eingangssignal (54) entspricht.
3. Dekorrelator gemäß Patentanspruch 1, bei dem in einem Beginnintervall und in einem Endintervall am Beginn und am Ende des ersten Zeitintervalls (70) das erste Ausgangssignal und das zweite Ausgangssignal (52) Anteile des Audio-Eingangssignals (58) und der verzögerten Repräsentation des Audio-Eingangssignals (58) ent- halten, wobei
in einem Zwischenintervall zwischen dem Beginnintervall und dem Endintervall des ersten Zeitintervalls das erste Ausgangssignal dem Audio-Eingangssignal (54) und das zweite Ausgangssignal (52) der verzögerten Repräsentation des Audio-Eingangssignals (58) entspricht; und wobei
in einem Beginnintervall und in einem Endintervall am Beginn und am Ende des zweiten Zeitintervalls (70) das erste Ausgangssignal und das zweite Ausgangssignal (52) Anteile des Audio-Eingangssignals (58) und der verzögerten Repräsentation des Audio-Eingangssignals (58) enthalten, wobei
in einem Zwischenintervall zwischen dem Beginnintervall und dem Endintervall des zweiten Zeitintervalls das erste Ausgangssignal der verzögerten Repräsentation des Audio-Eingangssignals (58) und das zweite Aus- gangssignal (52) dem Audio-Eingangssignal (54) entspricht.
4. Dekorrelator gemäß einem der Patentansprüche 1 bis 3, bei dem das erste und das zweite Zeitintervall zeit- lieh benachbart sind und aufeinander folgen.
5. Dekorrelator gemäß einem der Patentansprüche 1 bis 4, der ferner eine Verzögerungseinrichtung (56) umfasst, um die verzögerte Repräsentation des Audio- Eingangssignals (58) durch zeitliche Verzögerung des Audio-Eingangssignals (54) um die Verzögerungszeit zu erzeugen.
6. Dekorrelator gemäß einem der Patentansprüche 1 bis 5, der ferner eine Skaliereinrichtung (74) umfasst, um eine Intensität des Audio-Eingangssignals (54) und/oder der verzögerten Repräsentation des Audio- Eingangssignals (58) zu verändern.
7. Dekorrelator gemäß Patentanspruch 6, bei dem die Skaliereinrichtung (74) ausgebildet ist, um die Intensität des Audio-Eingangssignals (54) in Abhängigkeit der Verzögerungszeit so zu skalieren, dass bei kürzerer Verzögerungszeit eine größere Verringerung der Intensität des Audio-Eingangssignals (54) erreicht wird.
8. Dekorrelator gemäß einem der vorhergehende Patentan- sprüche, der ferner einen Nachprozessor (80) zum Kombinieren des ersten (50) und des zweiten Ausgangssignals (52) umfasst, um ein erstes (82) und ein zweites (84) nachprozessiertes Ausgangssignal zu erhalten, wobei sowohl das erste (82) als auch das zweite (84) nachprozessierte Ausgangssignal Signalbeiträge vom ersten (50) und zweiten (52) Ausgangssignal aufweisen.
9. Dekorrelator gemäß Patentanspruch 8, bei dem der Nachprozessor (80) ausgebildet ist, um das erste nachpro- zessierte Ausgangssignal M (82) und das zweite nachprozessierte Ausgangssignal D (84) aus dem ersten Ausgangssignal L' (50) und dem zweiten Ausgangssignal R' (52) derart zu bilden, dass folgende Bedingungen erfüllt sind:
M = 0,707 x (L' + R' ) , und D = 0,707 x (L' - R' ) .
10. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem der Mixer (60) ausgebildet ist, eine verzögerte Repräsentation des Audio-Eingangssignals
(58) zu verwenden, dessen Verzögerungszeit größer als 2 ms und kleiner als 50 ms ist.
11. Dekorrelator gemäß Patentanspruch 7, bei dem die Verzögerungszeit 3, 6, 9, 12, 15 oder 30 ms beträgt.
12. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem der Mixer (60) ausgebildet ist, um ein aus diskreten Abtastwerten bestehendes Audio- Eingangssignal (54) und eine aus diskreten Abtastwerten bestehende verzögerte Repräsentation des Audio- Eingangssignals (58) durch Austausch der Abtastwerte des Audio-Eingangssignals (54) und der Abtastwerte der verzögerten Repräsentation des Audio-Eingangssignals (58) zu kombinieren.
13. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem der Mixer (60) ausgebildet ist, das Audio-Eingangssignal (54) und die verzögerte Repräsentation des Audio-Eingangssignals (58) derart zu kombinieren, dass das erste und das zweite Zeitintervall die gleiche Länge besitzen.
14. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem der Mixer (60) ausgebildet ist, die Kombination des Audio-Eingangssignals (54) und der verzögerten Repräsentation des Audio-Eingangssignals (58) für eine Folge von Paaren zeitlich benachbarter erster (70) und zweiter (72) Zeitintervalle vorzunehmen.
15. Dekorrelator gemäß Patentanspruch 15, bei dem der Mixer (60) ausgebildet ist, um mit vorbestimmter Wahrscheinlichkeit für ein Paar der Folge von Paaren zeitlich benachbarter erster (70) und zweiter (72) Zeitin- tervalle die Kombination zu unterlassen, sodass in dem Paar im ersten (70) und zweiten (72) Zeitintervall das erste Ausgangssignal (50) dem Audio-Eingangssignal (54) und das zweite Ausgangssignal (52) der verzöger- ten Repräsentation des Audio-Eingangssignals (58) entspricht .
16. Dekorrelator gemäß Patentanspruch 14 oder 15, bei dem der Mixer (60) ausgebildet ist, die Kombination derart vorzunehmen, dass sich die Zeitdauer der Zeitintervalle in einem ersten Paar eines ersten (70) und eines zweiten (72) Zeitintervalls aus der Folge von Zeitintervallen von einer Zeitdauer der Zeitintervalle in einem zweiten Paar eines ersten und eines zweiten Zeitintervalls unterscheidet.
17. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem die Zeitdauer des ersten (70) und des zweiten (72) Zeitintervalls größer als die doppelte mittlere Zeitdauer von im Audio-Eingangssignal (54) enthaltenen transienten Signalanteilen ist.
18. Dekorrelator gemäß einem der vorhergehenden Patentansprüche, bei dem die Zeitdauer des ersten (70) und des zweiten (72) Zeitintervalls größer als 10 ms und kleiner als 200 ms ist.
19. Verfahren zum Erzeugen von Ausgangssignalen (50,52) basierend auf einem Audio-Eingangssignal (54), mit folgenden Schritten:
Kombinieren einer um eine Verzögerungszeit verzögerten Repräsentation des Audio-Eingangssignals (58) mit dem Audio-Eingangssignal (54), um ein erstes (50) und ein zweites (52) Ausgangssignal mit zeitlich variierenden Anteilen des Audio-Eingangssignals (58) und der verzögerten Repräsentation des Audio-Eingangssignals (58) zu erhalten, wobei in einem ersten Zeitintervall (70) das erste Ausgangssignal (50) einen mehr als 50-prozentigen Anteil des Audio-Eingangssignals (54) und das zweite Ausgangssignal (52) einen mehr als 50- prozentigen Anteil der verzögerten Repräsentation des Audio-Eingangssignals (58) enthält, und wobei
in einem zweiten Zeitintervall (72) das erste Ausgangssignal (50) einen mehr als 50-prozentigen
Anteil der verzögerten Repräsentation des Audio- Eingangssignals (58) und das zweite Ausgangssignal (52) einen mehr als 50-prozentigen Anteil des Audio-Eingangssignal (54) enthält.
20. Verfahren gemäß Patentanspruch 19, bei dem in dem ersten Zeitintervall (70) das erste Ausgangssignal dem Audio-Eingangssignal (54) und das zweite Ausgangssignal (52) der verzögerten Repräsentation des Audio- Eingangssignals (58) entspricht, wobei
in dem zweiten Zeitintervall (72) das erste Ausgangssignal (50) der verzögerten Repräsentation des Audio- Eingangssignals (58) und das zweite Ausgangssignal (52) dem Audio-Eingangssignal (54) entspricht.
21. Verfahren gemäß Patentanspruch 1, bei dem in einem Beginnintervall und in einem Endintervall am Beginn und am Ende des ersten Zeitintervalls (70) das erste Aus- gangssignal und das zweite Ausgangssignal (52) Anteile des Audio-Eingangssignals (58) und der verzögerten Repräsentation des Audio-Eingangssignals (58) enthalten, wobei
in einem Zwischenintervall zwischen dem Beginnintervall und dem Endintervall des ersten Zeitintervalls das erste Ausgangssignal dem Audio-Eingangssignal (54) und das zweite Ausgangssignal (52) der verzögerten Repräsentation des Audio-Eingangssignals (58) entspricht; und wobei
in einem Beginnintervall und in einem Endintervall am Beginn und am Ende des zweiten Zeitintervalls (70) das erste Ausgangssignal und das zweite Ausgangssignal (52) Anteile des Audio-Eingangssignals (58) und der verzögerten Repräsentation des Audio-Eingangssignals (58) enthalten, wobei
in einem Zwischenintervall zwischen dem Beginnintervall und dem Endintervall des zweiten Zeitintervalls das erste Ausgangssignal der verzögerten Repräsentation des Audio-Eingangssignals (58) und das zweite Aus- gangssignal (52) dem Audio-Eingangssignal (54) entspricht .
22. Verfahren gemäß einem der Patentansprüche 19 bis 21 mit folgendem zusätzlichen Schritt:
Verzögern des Audio-Eingangssignals (54) um die Verzögerungszeit, um die verzögerte Repräsentation des Audio-Eingangssignals (58) zu erhalten.
23. Verfahren gemäß einem der Patentansprüche 19 oder 22, mit folgendem zusätzlichen Schritt:
Verändern der Intensität des Audio-Eingangssignals (54) und/oder der verzögerten Repräsentation des Au- dio-Eingangssignals (58).
24. Verfahren gemäß einem der Patentansprüche 19 bis 23 mit folgendem zusätzlichem Schritt:
Kombinieren des ersten (50) und des zweiten (52) Ausgangssignals, um ein erstes (82) und ein zweites (84) nachprozessiertes Ausgangssignal zu erhalten, wobei sowohl das erste (82) als auch das zweite (84) nach- prozessierte Ausgangssignal Beiträge des ersten und des zweiten Ausgangssignals enthalten.
25. Audiodecoder zum Erzeugen eines mehrkanaligen Aus- gangssignals basierend auf einem Audio-Eingangssignal
(54), mit folgenden Merkmalen:
einem Dekorrelator gemäß einem der Patentansprüche 1 bis 18; und
einem Standard-Dekorrelator, wobei
der Audio-Decoder ausgebildet ist, um in einem Standardbetriebsmodus den Standard-Dekorrelator zu verwen- den und um bei einem transienten Audio-Eingangssignal (54) den erfindungsgemässen Dekorrelator zu verwenden.
26. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens gemäß einem der Ansprüche 19 bis 24, wenn das Programm auf einem Computer abläuft.
EP08735224A 2007-04-17 2008-04-14 Erzeugung dekorrelierter signale Active EP2036400B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007018032A DE102007018032B4 (de) 2007-04-17 2007-04-17 Erzeugung dekorrelierter Signale
PCT/EP2008/002945 WO2008125322A1 (de) 2007-04-17 2008-04-14 Erzeugung dekorrelierter signale

Publications (2)

Publication Number Publication Date
EP2036400A1 true EP2036400A1 (de) 2009-03-18
EP2036400B1 EP2036400B1 (de) 2009-12-16

Family

ID=39643877

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08735224A Active EP2036400B1 (de) 2007-04-17 2008-04-14 Erzeugung dekorrelierter signale

Country Status (16)

Country Link
US (1) US8145499B2 (de)
EP (1) EP2036400B1 (de)
JP (1) JP4682262B2 (de)
KR (1) KR101104578B1 (de)
CN (1) CN101543098B (de)
AT (1) ATE452514T1 (de)
AU (1) AU2008238230B2 (de)
CA (1) CA2664312C (de)
DE (2) DE102007018032B4 (de)
HK (1) HK1124468A1 (de)
IL (1) IL196890A0 (de)
MY (1) MY145952A (de)
RU (1) RU2411693C2 (de)
TW (1) TWI388224B (de)
WO (1) WO2008125322A1 (de)
ZA (1) ZA200900801B (de)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2008326957B2 (en) * 2007-11-21 2011-06-30 Lg Electronics Inc. A method and an apparatus for processing a signal
RU2509442C2 (ru) * 2008-12-19 2014-03-10 Долби Интернэшнл Аб Способ и устройство для применения реверберации к многоканальному звуковому сигналу с использованием параметров пространственных меток
AU2011295368B2 (en) 2010-08-25 2015-05-07 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus for generating a decorrelated signal using transmitted phase information
EP2477188A1 (de) * 2011-01-18 2012-07-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codierung und Decodierung von Slot-Positionen von Ereignissen in einem Audosignal-Frame
CN103139930B (zh) 2011-11-22 2015-07-08 华为技术有限公司 连接建立方法和用户设备
US9424859B2 (en) * 2012-11-21 2016-08-23 Harman International Industries Canada Ltd. System to control audio effect parameters of vocal signals
CN104981867B (zh) * 2013-02-14 2018-03-30 杜比实验室特许公司 用于控制上混音频信号的通道间相干性的方法
US9830917B2 (en) 2013-02-14 2017-11-28 Dolby Laboratories Licensing Corporation Methods for audio signal transient detection and decorrelation control
TWI618050B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於音訊處理系統中之訊號去相關的方法及設備
TWI618051B (zh) 2013-02-14 2018-03-11 杜比實驗室特許公司 用於利用估計之空間參數的音頻訊號增強的音頻訊號處理方法及裝置
EP2954635B1 (de) * 2013-02-19 2021-07-28 Huawei Technologies Co., Ltd. Rahmenstruktur für filterbank-mehrträger- wellenformen
US9818412B2 (en) * 2013-05-24 2017-11-14 Dolby International Ab Methods for audio encoding and decoding, corresponding computer-readable media and corresponding audio encoder and decoder
CN110619882B (zh) * 2013-07-29 2023-04-04 杜比实验室特许公司 用于降低去相关器电路中瞬态信号的时间伪差的系统和方法
EP3061089B1 (de) * 2013-10-21 2018-01-17 Dolby International AB Parametrische rekonstruktion von tonsignalen
EP2866227A1 (de) 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zur Dekodierung und Kodierung einer Downmix-Matrix, Verfahren zur Darstellung von Audioinhalt, Kodierer und Dekodierer für eine Downmix-Matrix, Audiokodierer und Audiodekodierer
WO2015173423A1 (en) * 2014-05-16 2015-11-19 Stormingswiss Sàrl Upmixing of audio signals with exact time delays
US11234072B2 (en) 2016-02-18 2022-01-25 Dolby Laboratories Licensing Corporation Processing of microphone signals for spatial playback
US10560661B2 (en) 2017-03-16 2020-02-11 Dolby Laboratories Licensing Corporation Detecting and mitigating audio-visual incongruence
CN110740404B (zh) * 2019-09-27 2020-12-25 广州励丰文化科技股份有限公司 一种音频相关性的处理方法及音频处理装置
CN110740416B (zh) * 2019-09-27 2021-04-06 广州励丰文化科技股份有限公司 一种音频信号处理方法及装置
CN118800253A (zh) * 2023-04-13 2024-10-18 华为技术有限公司 场景音频信号的解码方法和装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4792974A (en) * 1987-08-26 1988-12-20 Chace Frederic I Automated stereo synthesizer for audiovisual programs
US6526091B1 (en) 1998-08-17 2003-02-25 Telefonaktiebolaget Lm Ericsson Communication methods and apparatus based on orthogonal hadamard-based sequences having selected correlation properties
US6175631B1 (en) 1999-07-09 2001-01-16 Stephen A. Davis Method and apparatus for decorrelating audio signals
AUPQ942400A0 (en) * 2000-08-15 2000-09-07 Lake Technology Limited Cinema audio processing system
US7107110B2 (en) * 2001-03-05 2006-09-12 Microsoft Corporation Audio buffers with audio effects
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
CA3035175C (en) * 2004-03-01 2020-02-25 Mark Franklin Davis Reconstructing audio signals with multiple decorrelation techniques
CN1930915B (zh) * 2004-03-11 2012-08-29 Pss比利时股份有限公司 用于处理声音信号的方法和系统
PL1769491T3 (pl) 2004-07-14 2010-03-31 Koninl Philips Electronics Nv Przekształcanie kanałów audio
US7508947B2 (en) * 2004-08-03 2009-03-24 Dolby Laboratories Licensing Corporation Method for combining audio signals using auditory scene analysis
TWI393121B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 處理一組n個聲音信號之方法與裝置及與其相關聯之電腦程式
CN101040322A (zh) * 2004-10-15 2007-09-19 皇家飞利浦电子股份有限公司 处理音频数据以便生成交混回响的系统和方法
SE0402649D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods of creating orthogonal signals
KR100933548B1 (ko) * 2005-04-15 2009-12-23 돌비 스웨덴 에이비 비상관 신호의 시간적 엔벨로프 정형화
JP2007065497A (ja) * 2005-09-01 2007-03-15 Matsushita Electric Ind Co Ltd 信号処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2008125322A1 *

Also Published As

Publication number Publication date
JP2010504715A (ja) 2010-02-12
RU2411693C2 (ru) 2011-02-10
EP2036400B1 (de) 2009-12-16
HK1124468A1 (en) 2009-07-10
DE502008000252D1 (de) 2010-01-28
AU2008238230A1 (en) 2008-10-23
CN101543098B (zh) 2012-09-05
IL196890A0 (en) 2009-11-18
DE102007018032A1 (de) 2008-10-23
WO2008125322A1 (de) 2008-10-23
AU2008238230B2 (en) 2010-08-26
MY145952A (en) 2012-05-31
US20090326959A1 (en) 2009-12-31
KR20090076939A (ko) 2009-07-13
CA2664312C (en) 2014-09-30
ATE452514T1 (de) 2010-01-15
KR101104578B1 (ko) 2012-01-11
CA2664312A1 (en) 2008-10-23
RU2009116268A (ru) 2010-11-10
US8145499B2 (en) 2012-03-27
CN101543098A (zh) 2009-09-23
TWI388224B (zh) 2013-03-01
TW200904229A (en) 2009-01-16
DE102007018032B4 (de) 2010-11-11
ZA200900801B (en) 2010-02-24
JP4682262B2 (ja) 2011-05-11

Similar Documents

Publication Publication Date Title
EP2036400B1 (de) Erzeugung dekorrelierter signale
DE102006050068B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm
EP2005421B1 (de) Vorrichtung und verfahren zum erzeugen eines umgebungssignals
DE602004001868T2 (de) Verfahren zum bearbeiten komprimierter audiodaten zur räumlichen wiedergabe
EP1854334B1 (de) Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms
DE102007048973B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung
EP1687809B1 (de) Vorrichtung und verfahren zur wiederherstellung eines multikanal-audiosignals und zum erzeugen eines parameterdatensatzes hierfür
DE602004005846T2 (de) Audiosignalgenerierung
DE69325952T2 (de) Kodierung und Dekodierung von Audio-information
DE69827775T2 (de) Tonkanalsmischung
DE102005014477A1 (de) Vorrichtung und Verfahren zum Erzeugen eines Datenstroms und zum Erzeugen einer Multikanal-Darstellung
WO2015049334A1 (de) Verfahren und vorrichtung zum downmixen eines multikanalsignals und zum upmixen eines downmixsignals
WO2014072513A1 (de) Nichtlineare inverse kodierung von multikanal-signalen
DE102019135690A1 (de) Verfahren und Vorrichtung zur Audiosignalverarbeitung für binaurale Virtualisierung
EP1123638A2 (de) Vorrichtung und verfahren zur qualitätsbeurteilung von mehrkanaligen audiosignalen
WO2015128379A1 (de) Kodierung und dekodierung eines niederfrequenten kanals in einem audiomultikanalsignal
DE102017121876A1 (de) Verfahren und vorrichtung zur formatumwandlung eines mehrkanaligen audiosignals

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20090129

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL BA MK RS

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1124468

Country of ref document: HK

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

RIN2 Information on inventor provided after grant (corrected)

Inventor name: POPP, HARALD

Inventor name: LINZMEIER, KARSTEN

Inventor name: HERRE, JUERGEN

Inventor name: MUNDT, HARALD

Inventor name: PLOGSTIES, JAN

Inventor name: DISCH, SASCHA

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

REF Corresponds to:

Ref document number: 502008000252

Country of ref document: DE

Date of ref document: 20100128

Kind code of ref document: P

RIN2 Information on inventor provided after grant (corrected)

Inventor name: PLOGSTIES, JAN

Inventor name: LINZMEIER, KARSTEN

Inventor name: DISCH, SASCHA

Inventor name: HERRE, JUERGEN

Inventor name: MUNDT, HARALD

Inventor name: POPP, HARALD

RIN2 Information on inventor provided after grant (corrected)

Inventor name: PLOGSTIES, JAN

Inventor name: MUNDT, HARALD

Inventor name: LINZMEIER, KARSTEN

Inventor name: DISCH, SASCHA

Inventor name: POPP, HARALD

Inventor name: HERRE, JUERGEN

REG Reference to a national code

Ref country code: NL

Ref legal event code: VDEP

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100316

REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1124468

Country of ref document: HK

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100416

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100327

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100316

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

BERE Be: lapsed

Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FORDERUNG DER ANGEWAN

Effective date: 20100430

26N No opposition filed

Effective date: 20100917

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100430

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100430

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100516

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100617

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20100414

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20091216

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120430

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20120430

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 452514

Country of ref document: AT

Kind code of ref document: T

Effective date: 20130414

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20130414

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 9

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230512

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20240423

Year of fee payment: 17

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240418

Year of fee payment: 17

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20240419

Year of fee payment: 17