WO2005060307A1 - Vorrichtung und verfahren zum erzeugen eines tieftonkanals - Google Patents

Vorrichtung und verfahren zum erzeugen eines tieftonkanals Download PDF

Info

Publication number
WO2005060307A1
WO2005060307A1 PCT/EP2004/013130 EP2004013130W WO2005060307A1 WO 2005060307 A1 WO2005060307 A1 WO 2005060307A1 EP 2004013130 W EP2004013130 W EP 2004013130W WO 2005060307 A1 WO2005060307 A1 WO 2005060307A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal
woofer
loudspeaker
value
audio
Prior art date
Application number
PCT/EP2004/013130
Other languages
English (en)
French (fr)
Inventor
Michael Beckinger
Sandra Brix
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to EP04797996A priority Critical patent/EP1671516B1/de
Priority to DE502004002926T priority patent/DE502004002926D1/de
Priority to JP2006540333A priority patent/JP4255031B2/ja
Publication of WO2005060307A1 publication Critical patent/WO2005060307A1/de
Priority to US11/440,853 priority patent/US8699731B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control

Definitions

  • the present invention relates to the generation of one or more bass channels, and in particular to the generation of one or more bass channels in connection with a multi-channel audio system, such as, for example, a cellular field synthesis system.
  • a multi-channel audio system such as, for example, a cellular field synthesis system.
  • wave field synthesis Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has so far only rarely been used in practice. It is only the advances in the areas of microprocessor technology and audio coding that allow this technology to be used in concrete applications. The first products in the professional sector are expected next year. The first wave field synthesis applications for the consumer sector are also expected to be launched in a few years.
  • Every point that is captured by a wave is the starting point for an elementary wave that propagates in a spherical or circular manner.
  • a large number of loudspeakers that are arranged next to each other can be used to simulate any shape of an incoming wavefront.
  • the audio signals of each loudspeaker have to be fed with a time delay and amplitude scaling in such a way that the emitted sound fields of the individual loudspeakers overlap correctly. If there are several sound sources, the contribution to each loudspeaker is calculated separately for each source and the resulting signals are added. In a room with reflective walls, reflections can also be reproduced via the loudspeaker array as additional sources.
  • the effort involved in the calculation therefore depends heavily on the number of strongly depends on the number of sound sources, the reflection properties of the recording room and the number of speakers.
  • the particular advantage of this technique is that a natural spatial sound impression is possible over a large area of the playback room.
  • the direction and distance of sound sources are reproduced very precisely. To a limited extent, virtual sound sources can even be positioned between the real speaker array and the listener.
  • wave field synthesis works well for environments whose properties are known, irregularities do occur when the nature changes or when the wave field synthesis is carried out on the basis of an environment condition that does not match the actual nature of the environment.
  • the technique of wave field synthesis can also be used advantageously to complement a visual perception with a corresponding spatial audio perception. So far, the mediation was an authentic visual impression of the virtual scene v in the foreground in the production in virtual studios.
  • the acoustic impression that goes with the image is usually imprinted on the audio signal by manual work steps in what is known as post-production, or is classified as too complex and time-consuming to implement and is therefore neglected. This usually leads to a contradiction of the individual sensations, which leads to the fact that the designed space, i. H.
  • wave field synthesis In the audio area, the technique of wave field synthesis (WFS) can be used to achieve a good spatial sound for a large range of listeners.
  • wave field synthesis is based on the principle of Huygens, according to which wave fonts can be formed and built up by superimposing elementary waves. According to a mathematically exact theoretical description, an infinite number of sources at infinitely small distances would have to be used to generate the elementary waves. In practice, however, many loudspeakers are finally used at a finite distance apart. Each of these speakers is based on the WFS principle with an audio signal from a virtual source that has a certain delay and one has a certain level. Levels and delays are usually different for all speakers.
  • the ellen field synthesis system works on the basis of the Huygens principle and reconstructs a given waveform, for example a virtual source, which is arranged at a certain distance from a presentation area or to a listener in the presentation area by a plurality of single waves.
  • the wave field synthesis algorithm thus receives information about the actual position of a single speaker from the speaker array, in order to then calculate a component signal for this single speaker, which this speaker must then ultimately emit so that the listener overlays the speaker signal from one speaker with the speaker signals of the other active ones Loudspeaker carries out a reconstruction in such a way that the listener has the impression that he is not "sonicated” by many individual loudspeakers, but only borrowed from a single loudspeaker at the position of the virtual source.
  • each virtual source for each loudspeaker ie the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc.
  • the contribution from each virtual source for each loudspeaker is calculated in order to then add up the component signals to finally get the actual loudspeaker signal.
  • the overlaying of the loudspeaker signals of all active loudspeakers at the listener would result in the listener not having the impression that he was being exposed to a large array of loudspeakers, but that the sound he hears only comes from three sound sources positioned in special positions that are equal to the virtual sources.
  • the component signals are usually calculated by applying a delay and a scaling factor to the audio signal assigned to a virtual source, depending on the position of the virtual source and the position of the loudspeaker, in order to produce a delayed and / or scaled audio signal
  • a virtual source that directly represents the loudspeaker signal if only one virtual source is present, or that, after addition with other component signals for the loudspeaker under consideration, from other virtual sources then contributes to the loudspeaker signal for the loudspeaker under consideration.
  • Typical wave field synthesis algorithms work regardless of how many speakers are in the speaker array.
  • the theory on which the wave field synthesis is based is that any sound field can be exactly reconstructed by an infinitely high number of individual speakers, the individual single speaker being arranged infinitely close to one another. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there is a limited number of speakers, which are also arranged at certain predetermined distances from each other. This means that in real systems only an approximation to the actual waveform is achieved, which would take place if the virtual source were actually available, i.e. would be a real source.
  • the loudspeaker array can only be viewed when viewing a cinema, e.g. B. is arranged on the side of the cinema screen.
  • the wave field synthesis module would generate speaker signals for these speakers, the speaker signals for these speakers normally being the same as for corresponding speakers in a speaker array that extends, not just across the side of a cinema, for example, to the screen is arranged, but is also arranged on the left, right and behind the listening room.
  • This "360 °" speaker array will of course create a better approximation to an exact wave field than just a one-sided array, for example in front of the audience.
  • a wave field synthesis module typically receives no feedback as to how many loudspeakers are present or whether it is a single-sided or multi-sided or even a 360 ° array or not.
  • a wave field synthesis device calculates a loudspeaker signal for one which other speakers still exist ⁇ According speaker based on the position of the speaker and independent of it or do not exist.
  • Wave field synthesis devices are also able to emulate several different types of sources.
  • a prominent source form is the point source, where the level decreases proportionally 1 / r, where r is the distance between a listener and the position of the virtual source.
  • Another source form is a source that emits plane waves. Here the level remains constant regardless of the distance to the listener, since plane waves can be generated by point sources that are arranged at an infinite distance.
  • the level change in two-dimensional loudspeaker arrangements corresponds to the natural level change except for a negligible error.
  • the absolute level can result from the use of a finite number of loudspeakers instead of the theoretically required infinite number of loudspeakers, as has been explained above.
  • the so-called subwoofer principle is used in such existing five-channel systems or seven-channel systems.
  • the subwoofer principle is used in multichannel playback systems to save expensive and large woofers.
  • a low-frequency channel is used that only contains music signals with frequencies lower than a cut-off frequency of around 120 Hz.
  • This low-frequency channel controls a low-frequency loudspeaker with a large diaphragm area, with which high sound pressures are achieved, especially at low frequencies.
  • the subwoofer principle takes advantage of the fact that it is very difficult for the human ear to localize low-frequency sounds in the direction.
  • an extra bass channel for a special loudspeaker arrangement (spatial arrangement) is already mixed during the sound mixing. Examples of such ultimate channel playback systems are Dolby Digital, Sony SDDS and DTS.
  • the subwoofer channel can be mixed regardless of the size of the room to be sounded, since the spatial conditions only change in the scale sense.
  • the loudspeaker arrangement remains the same in scale.
  • Wave Field Synthesis a large audience area can be covered with sound. Sound events can be digestge ⁇ in their spatial depth. For this purpose, the complete sound field of the individual sound events is reproduced in the audience area. This is done by a large number of speakers. Around 500 or more speaker systems are required for large installations. If you wanted to equip every single speaker system with a powerful woofer, very high costs would arise.
  • the number of speaker channels is related to the size of the audience area.
  • the number of loudspeaker channels is determined by how densely the loudspeakers are distributed over the circumference of the area to be irradiated. The goodness of the WFS playback system depends on this density.
  • the volume depends on the number of loudspeaker channels and the density of the loudspeakers, since all loudspeaker channels add up to form a wave field. The volume of a WFS system is therefore not predetermined.
  • the volume of the subwoofer channel is, however, predetermined with the known parameters of the electrical amplifier and the loudspeaker.
  • the object of the present invention is to provide a concept for generating a low-frequency channel in a multi-channel reproduction system, which enables a reduction of level artifacts.
  • the present invention is based on the knowledge that the low-frequency channel for a low-frequency loudspeaker or that several low-frequency channels for several low-frequency loudspeakers in a multichannel system is not already generated in a sound mixing process that is independent of an actual one Playback space takes place, but that reference is made to the actual playback space by taking into account the predetermined position of the woofer on the one hand and properties of audio objects, which typically represent virtual sources, on the other hand, in order to generate the woofer channel.
  • audio objects are assumed, an object description on the one hand and an object signal on the other hand being assigned to an audio object.
  • an audio object scaling value is calculated for each audio object signal, which is then used to scale each object signal and then to sum up the scaled object signals to obtain a sum signal.
  • the low-frequency channel which is fed to the low-frequency loudspeaker, is then derived from the sum signal.
  • a scaling of the audio object signal which originates from a virtual source, which is arranged at a virtual position, is carried out in such a way that an actual volume or an actual amplitude state, based on this virtual source, corresponds to a desired amplitude state at the reference reproduction position ,
  • the target amplitude condition depends on the volume of the audio object signal associated with the virtual source and the distance between the virtual position and the reference playback position.
  • This calculation of audio object scaling values is carried out for all virtual sources in order to then scale the audio object signals of each virtual source with the corresponding scaling value.
  • the scaled audio object signals are then summed up to obtain a sum signal.
  • the low-frequency channel is then derived from this sum signal in the case where there is only a single low-frequency loudspeaker. This can be done by simple low-pass filtering.
  • the low-pass filtering can already be carried out with the still unscaled audio object signals, so that only low-pass signals are already being processed further, so that the sum signal is already the low-frequency channel itself.
  • the extraction of the low-frequency channel only after summing up the scaled object signals in order to obtain the best possible approximation of the volume of the low-frequency signals in the performance room on the one hand and the volume of the mid-range and high-frequency signals in the performance room on the other hand.
  • a subwoofer channel is therefore not already mixed during the sound mixing process from the virtual sources, that is to say the sound material for the wave field synthesis. Instead, the mixing takes place automatically during playback in the wave field synthesis system regardless of the size of the system and the number of speakers.
  • the volume of the subwoofer signal depends on the number and the extent of the fringed area of the wave field synthesis system. Even prescribed loudspeaker arrangements no longer have to be observed, since the loudspeaker position and number of loudspeakers are included in the generation of the low-frequency channel.
  • the present invention is not only limited to wave field synthesis systems, but can generally be applied to any multichannel reproduction systems in which the mixing and generation, that is to say the rendering, of the reproduction channels, that is to say the loudspeaker channels themselves, only occurs in the case of the actual playback takes place.
  • Systems of this type are, for example, 5.1 systems, 7.1 systems, etc.
  • the low-frequency channel generation according to the invention is preferably combined with a level artifact reduction in order to carry out level corrections in a wave field synthesis system not only for low-frequency channels, but for all loudspeaker channels, in order to be independent of the number and position of the loudspeakers used with respect to the wave field synthesis algorithm used.
  • the low-frequency loudspeaker will not be arranged in a reference reproduction position for which an optimal level correction is carried out.
  • the sum signal is scaled according to the invention, taking into account the position of the woofer using a loudspeaker scaling value to be calculated.
  • This scaling will preferably only be an amplitude scaling and not a phase scaling, taking into account the fact that the ear has no good localization at the low frequencies present in the low-frequency channel, but only shows an exact amplitude / volume perception.
  • a phase scaling can be used as scaling, if such is desired in an application scenario.
  • a separate woofer is created for each woofer.
  • the bass channels of the individual bass speakers preferably differ only in their amplitude, but not in the signal itself. All woofers thus send the same sum signal, but with different amplitude scaling, with the amplitude scaling for a single one Woofer depends on the distance of the individual woofer to the reference playback point.
  • the overall volume of all superimposed tie tone channels at the reference playback position is equal to the volume of the sum signal or the loudspeaker of the sum signal corresponds at least within a predetermined tolerance range.
  • a separate loudspeaker scaling value is calculated for each individual woofer channel, with which the sum signal is then scaled accordingly in order to obtain the individual woofer channel.
  • subwoofer channel is particularly advantageous in that it leads to a significant price reduction, since the individual speakers, for. B. a wave field synthesis system can be built much cheaper, since they do not have to have low-frequency properties. In contrast, only one or a few, such as three to four, subwoofer speakers is sufficient to realize the very low frequencies with high sound pressure through a correspondingly large membrane area.
  • the present invention is also advantageous in that the one or more low-frequency channels for any speaker positions and multi-channel formats can be generated automatically, this requiring only little additional effort, particularly in the context of a wave field synthesis system, since the wave field synthesis system carries out a level correction anyway.
  • the individual volume and preferably also the delay of each virtual source is first calculated in relation to the reference playback position.
  • the audio signal of each virtual source is then scaled and delayed in order to sum up all virtual sources.
  • the total volume and delay of the subwoofer are then calculated depending on its distance from the reference point, if the subwoofer is not already located in the reference point.
  • the individual volumes of all subwoofers it is preferred to first determine the individual volumes of all subwoofers depending on their distances from the reference point.
  • the sum of all subwoofer channels is equal to that of the reference volume at the reference playback position, which preferably corresponds to the center point of the wave field synthesis system.
  • Corresponding scaling factors per subwoofer are thus calculated, whereby however first individual volume and delay of each virtual source are determined in relation to the reference point. Then each virtual source is scaled again accordingly and optionally delayed, in order then to sum up all virtual sources to the sum signal, which is then scaled with the individual scaling factors for each subwoofer channel in order to obtain the individual bass channels for the various bass speakers.
  • FIG. 1 shows a block diagram of the device according to the invention for level correction in a wave field synthesis system
  • FIG. 2 shows a basic circuit diagram of a wave field synthesis environment as can be used for the present invention
  • FIG. 3 shows a more detailed illustration of the wave field synthesis module shown in FIG. 2;
  • FIG. 4 shows a block diagram of a device according to the invention for determining the correction value according to an exemplary embodiment with a look-up table and, if appropriate, interpolation device;
  • FIG. 5 shows a further exemplary embodiment of the device for determining FIG. 1 with target value / actual value determination and subsequent comparison
  • 6a is a block diagram of a wave field synthesis module with an embedded manipulation device for manipulating the component signals
  • 6b shows a block diagram of a further exemplary embodiment of the present invention with an upstream manipulation device
  • FIG. 7a shows a sketch for explaining the desired amplitude state at an optimal point in a demonstration area
  • 7b shows a sketch to explain the actual amplitude state at an optimal point in the demonstration area
  • 8 shows a basic block diagram of a wave field synthesis system with a wave field synthesis module and loudspeaker array in a demonstration area
  • FIG. 9 shows a block diagram of a device according to the invention for generating a low-frequency channel
  • FIG. 10 shows a preferred embodiment of the device for providing the bass channel for a plurality of bass speakers
  • FIG. 11 shows a schematic representation of a demonstration area with a plurality of individual speakers and two subwoofers.
  • both the volume and the delay are calculated by the wave field synthesis algorithm for each speaker channel and each virtual source.
  • the position of the individual loudspeaker must be known.
  • This scaling of the individual audio object signals for the individual wave field synthesis system loudspeakers is based on the knowledge that the inadequacies of a wave field synthesis system with a (practically realizable) finite number of loudspeakers can at least be alleviated if a level Correction is performed by manipulating either the audio signal associated with a virtual source prior to wave field synthesis or the component signals for various loudspeakers originating in a virtual source after wave field synthesis using a correction value to detect a deviation between a target amplitude condition in a demonstration area and an actual amplitude state in the demonstration area to reduce.
  • the target amplitude state results from the fact that depending on the position of the virtual source, and z.
  • a target level is determined as an example of a target amplitude state, and that an actual level as an example of an actual amplitude state of the listener is determined. While the target amplitude state is determined independently of the actual grouping and type of the individual speakers only on the basis of the virtual source or their position, the actual situation is calculated taking into account the positioning, type and control of the individual speakers of the speaker array.
  • the sound level at the ear of the listener can be determined at the optimum point within the demonstration area on the basis of a component signal from the virtual source, which is emitted via a single loudspeaker.
  • the level at the ear of the listener at the optimal point within the demonstration area can also be determined for the other component signals that go back to the virtual source and are emitted via other loudspeakers, in order to then summarize these levels to the actual actual level at the ear of the To receive the handset.
  • the transfer function of each individual loudspeaker as well as the level of the signal at the loudspeaker and the distance of the listener at the point under consideration within the demonstration area from the individual loudspeaker can be taken into account.
  • the transmission characteristics of the speaker can be assumed to work as an ideal point source.
  • the directional characteristic of the individual speaker can also be taken into account.
  • a major advantage of this concept is that in an embodiment in which sound levels are considered, only multiplicative scaling occurs, in that for a quotient between the target level and the actual level, which gives the correction value, not the absolute level at the listener or the absolute level of the virtual source is required. Instead, the correction factor depends only on the position of the virtual source (and thus on the positions of the individual speakers) and the optimal point within the demonstration area. However, these values are fixed with regard to the position of the optimal point and the positions and transmission characteristics of the individual loudspeakers and do not depend on a piece being played.
  • the concept can be implemented in a computationally efficient manner as a look-up table, in that a look-up table is generated and used, which includes position correction factor-value pairs, for all or a substantial part of possible virtual positions.
  • a look-up table is generated and used, which includes position correction factor-value pairs, for all or a substantial part of possible virtual positions.
  • no on-line setpoint determination, actual value determination and setpoint / actual value comparison algorithm is to be carried out.
  • These algorithms which can be time-consuming in some cases, can be dispensed with if the look-up table is accessed on the basis of a position of a virtual source in order to determine from there the correction factor valid for this position of the virtual source.
  • a virtual source with a certain calibration level would be placed in a certain virtual position.
  • a wave field synthesis module would calculate the loudspeaker signals for the individual loudspeakers in order to finally measure the level actually arriving at the listener due to the virtual source.
  • a correction factor would then be determined such that it at least reduces the deviation from the target level to the actual level or preferably brings it to 0.
  • This correction factor would then be stored in the look-up table in association with the position of the virtual source in order to gradually generate the entire look-up table for a specific wave field synthesis system in a special demonstration room, that is to say for many positions of the virtual source.
  • manipulation based on the correction factor there are several options for manipulation based on the correction factor.
  • the correction factor is not necessarily identical for all component signals got to. However, this is largely preferred in order not to impair the relative scaling of the component signals to one another, which is necessary for the reconstruction of the actual wave situation.
  • One advantage is that with relatively simple measures, at least during operation, a level correction can be carried out in such a way that the listener, at least in view of the volume of a virtual source that he perceives, does not notice that the infinitely many loudspeakers that are actually required are not available , but only a limited number of speakers.
  • Another advantage is that even if a virtual source moves at a constant distance from the viewer (e.g. from left to right), this source for the viewer, who is sitting in the middle in front of the screen, for example, is always the same loud and is not even louder and once quieter, which would be the case without correction.
  • Another advantage is that it offers the option of offering less expensive wave field synthesis systems with a smaller number of loudspeakers, which, however, do not involve any level artifacts, especially for moving sources, ie just as good for a listener with regard to the level problem act like more complex wave field synthesis systems with a large number of speakers. Levels which are too low can also be corrected according to the invention for holes in the array.
  • FIG. 9 is either standing alone, ie without level correction
  • Individual speakers can be used, or that can preferably be combined with the concept of level artifact correction described later with reference to FIGS. 1-8, in order to also use the correction values used for level artifact correction of the individual speakers as audio object scaling values, which are used in low-frequency channel generation must be used.
  • FIG. 9 shows a device for generating a low-frequency channel for a low-frequency loudspeaker, which is arranged at a predetermined loudspeaker position.
  • the device shown in FIG. 9 initially comprises a device 900 for providing a plurality of audio objects, an audio object signal 902 and an audio object description 904 being assigned to an audio object.
  • the audio object description will typically include an audio object position and possibly the audio object type.
  • the audio object description can also directly include an indication of the audio object volume. If this is not the case, then the audio object volume can be easily calculated from the audio object signal itself, for example by squaring and summing over a certain period of time. If the transmission function, frequency response, etc.
  • the object description of the audio signal is supplied to means 906 for calculating an audio object scaling value for each audio object.
  • the individual audio object scaling values 908 are then, as shown with reference to FIG. 9, fed to a device 910 for scaling the object signals.
  • the means 906 for computing the audio object scaling value is designed to calculate an audio object scaling value for each audio object depending on the object description. If it is a source that emits plane waves, the audio object scaling value or the correction factor will be 1, since for such plane-wave audio objects a spacing between the position of this object and the optimal reference playback position is irrelevant, because in this case the virtual position is assumed to be infinite.
  • the audio object scaling value becomes dependent on the object volume, which is either in the object description or can be derived from the object signal, and that Distance between the virtual position of the audio object and the reference playback position is calculated.
  • the audio object scaling value or correction value such that it is taken into account that it is based on a target amplitude state in the demonstration area, the target amplitude state depending on a position of the virtual source or a type of the virtual source, where the correction value is also based on an actual amplitude state in the demonstration area, which is based on the component signals for the individual speakers on the basis of the virtual source under consideration.
  • the correction value is thus calculated in such a way that a manipulation of the audio signal assigned to the virtual source using the correction value reduces a deviation between the desired amplitude state and the actual amplitude state.
  • a delay which may be caused by different virtual positions before the summation by means 914, so that the individual audio object signals, which are present as sequences of samples, are shifted with respect to a time reference. in order to take sufficient account of the differences in transit time of the sound signal from the virtual position to the reference reproduction position.
  • the scaled and correspondingly delayed object signals are then summed up by the device 914 in samples, in order to obtain a sum signal with a sequence of sum signal samples, which is designated by 916 in FIG. 9.
  • This sum signal 916 is fed to a device 918 for providing the low-frequency channel for the one or more subwoofers, which supplies the subwoofer signal or the low-frequency channel 920 on the output side.
  • the sound signal emitted by a woofer is not a sound signal with full bandwidth, but with an upper bandwidth limit.
  • the cut-off frequency of the sound signal emitted by a woofer is less than 250 Hz and preferably even only 125 Hz.
  • the band limitation of this sound signal can take place at different points.
  • a simple measure is to supply the woofer with a full bandwidth excitation signal, which is then band-limited by the woofer itself, since it only converts low frequencies into sound signals, but suppresses high frequencies.
  • the band limitation can also be carried out in the device 918 for providing the low-frequency channel. gene by low-pass filtering the signal there before a digital / analog conversion, this low-pass filtering being preferred, since it can be carried out on the digital side, so that clear conditions exist regardless of the actual implementation of the subwoofer.
  • the low-pass filtering can take place before the device 910 for scaling the object signals, so that the operations which are carried out by the devices 910, 914, 918 are now carried out with low-pass signals and not with signals of the entire bandwidth.
  • the low-pass filtering in the device 918 it is preferred to carry out the low-pass filtering in the device 918, so that the calculation of the audio object scaling values, the scaling of the object signals and the summation with signals of full bandwidth are carried out in order for the loudspeakers to match the low tone on the one hand and the mid-tone and Ensure high tones on the other hand.
  • 11 schematically shows a wave field synthesis system with a large number of individual speakers 808.
  • the individual speakers 808 form an array 800 of individual speakers, which enclose the demonstration area, preferably within the demonstration area the reference playback position or reference point 1100 is located.
  • 11 also schematically shows an audio object 1102, which is referred to as a "virtual sound object".
  • the virtual sound object 1102 comprises an object description that represents a virtual position 1104. Using the coordinates of the reference point 1100 and the coordinates of the virtual position 1104, the if necessary, can be converted accordingly, the distance D of the virtual sound object 1102 from the reference playback position 100.
  • 11 also shows a first woofer 1106 at a first predetermined loudspeaker position 1108 and a second woofer 1110 at a second woofer position 1112.
  • the second subwoofer 1110 or any further one in FIG 11 not shown optional additional subwoofers.
  • the first subwoofer 1106 is at a distance d1 from the reference point 1100
  • the second subwoofer 1110 is at a distance d2 from the reference point.
  • a subwoofer n (not shown in FIG. 11) is at a distance dn from the reference point 1100.
  • the device 918 for providing the low-frequency channel is designed to, in addition to the sum signal 916, which is denoted by s in FIG. 10, also the distance d1 of the woofer 1, which is denoted by 930, based on the distance d2 of the woofer 2, designated 932, and the distance dn of the woofer n, designated 934.
  • the device 918 supplies a first bass channel 940, a second bass channel 942 and an nth bass channel 944. It can be seen from FIG.
  • the respective weighting factors are denoted by ai, a 2 , ..., a n .
  • the individual weighting factors ai, a 2 , a n depend on the one hand on the distances 930-934 and on the other hand on the general boundary condition that the volume of the bass channels at reference point 100 corresponds to the reference volume, that is to say the desired amplitude state for the bass channel at reference playback position 1100 (FIG. 11).
  • the sum of the loudspeaker scaling values ai, a 2 , a n will be greater than 1 in order to take into account the attenuation of the bass channels on the way from the corresponding subwoofer to the reference point. If only a single woofer (e.g. 1106) is provided, the scaling factor ai will also be greater than 1, while no further scaling factors need to be calculated, since there is only a single woofer.
  • a level artifact correction device for the loudspeaker array 800 in FIG. 8 and FIG. 11 is shown, which are preferably combined with the low-frequency channel calculation according to the invention, as has been illustrated with reference to FIGS. 9-11 can.
  • the wave field synthesis system has a speaker array 800 placed with respect to a demonstration area 802.
  • the speaker array shown in Fig. 8 which is a 360 ° array, includes four array sides 800a, 800b, 800c and 800d.
  • the demonstration area 802 e.g. B. a cinema hall, it is assumed with regard to the conventions front / rear or right / left that the cinema screen is on the same side of the screening area 802 on which the sub-array 800c is also arranged.
  • the viewer who is sitting at the so-called optimal point P in the demonstration area 802, would see the front, that is, the screen.
  • Sub-array 800a would then be behind the viewer, while to the left of Viewer would have sub-array 800d and sub-array 800b to the right of the viewer.
  • Each loudspeaker array consists of a number of different individual loudspeakers 808, each of which is controlled with its own loudspeaker signals, which are provided by a wave field synthesis module 810 via a data bus 812, which is shown only schematically in FIG. 8.
  • the wave field synthesis module is designed to use the information about e.g. B.
  • loudspeaker information (LS information)
  • loudspeaker signals for the individual loudspeakers 808, each of which is generated by the audio tracks for virtual sources to which positive ons information are assigned are derived according to the known wave field synthesis algorithms.
  • the wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.
  • the following explanations regarding the present invention can in principle be carried out for each point P in the demonstration area.
  • the optimum point can thus be anywhere in the demonstration area 802.
  • it is preferred to place the optimal point or the optimal line in the middle or at the center of gravity of the wave field synthesis system, which is generated by the loudspeaker sub-arrays 800a, 800b, 800c , 800d is defined to assume.
  • FIG. 2 shows a wave field synthesis environment in which the present invention can be implemented.
  • the center of a wave field synthesis environment is a wave field synthesis module 200, which comprises various inputs 202, 204, 206 and 208 and various outputs 210, 212, 214, 216.
  • Various audio signals for virtual sources are fed to the wave field synthesis module via inputs 202 to 204. So the input 202 receives z.
  • the audio signal 1 would be e.g. B. the language of an actor who moves from a left side of the screen to a right side of the screen and possibly additionally away from the viewer or towards the viewer.
  • the audio signal 1 would then be the actual language of this actor, while the position information as a function of time represents the current position of the first actor in the recording setting at a certain point in time.
  • the audio signal n would be the language of, for example, another actor who moves the same or different than the first actor.
  • the current position of the other actor to whom the audio signal n is assigned is communicated to the wave field synthesis module 200 by position information synchronized with the audio signal n.
  • different virtual sources exist depending on the recording setting, the audio signal of each virtual source being supplied to the wave field synthesis module 200 as a separate audio track.
  • a wave field synthesis module feeds a plurality of loudspeakers LSI, LS2, LS3, LSm by outputting loudspeaker signals via the outputs 210 to 216 to the individual loudspeakers.
  • the positions of the individual loudspeakers in a playback setting, such as a cinema, are communicated to the wave field synthesis module 200 via the input 206.
  • the wave field synthesis module 200 In the cinema hall there are many individual loudspeakers grouped around the cinema audience, preferably in arrays are arranged such that there are loudspeakers both in front of the viewer, for example behind the screen, and behind the viewer and to the right and left of the viewer.
  • other inputs can be communicated to the wave field synthesis module 200, such as information about the room acoustics, etc., in order to be able to simulate the actual room acoustics prevailing during the recording set-up in a cinema hall.
  • the loudspeaker signal which is supplied to the loudspeaker LSI via the output 210 will be a superimposition of component signals of the virtual sources, in that the loudspeaker signal for the loudspeaker LSI is a first component which originates from the virtual source 1, a second Component, which goes back to the virtual source 2, as well as an nth component, which goes back to the virtual source n.
  • the individual component signals are linearly superimposed, i.e. added after their calculation, in order to simulate the linear superposition at the ear of the listener, who will hear a linear superposition of the sound sources perceivable in a real setting.
  • the wave field synthesis module 200 has a strongly parallel structure in that, starting from the audio signal for each virtual source and starting from the position information for the corresponding virtual source, delay information V x and scaling factors SFj are first of all . calculated from the position information and the position of the speaker under consideration, e.g. B. depend on the loudspeaker with the order number j, ie LSj.
  • the calculation of a delay information V x and a scaling factor SFj happens based on the position information of a virtual source and the position of the speaker j in question by known algorithms implemented in devices 300, 302, 304, 306.
  • the individual component signals are then summed by a summer 320 in order to determine the discrete value for the current time t a of the loudspeaker signal for loudspeaker j which can then be supplied to the loudspeaker for the output (for example the output 214 if the loudspeaker j is the loudspeaker LS3).
  • a value that is valid due to a delay and scaling with a scaling factor at a current point in time is first calculated individually for each virtual source, after which all component signals for a loudspeaker are summed due to the different virtual sources. If, for example, there were only one virtual source, the summer would be omitted and the signal present at the output of the summer in FIG. B. correspond to the signal output by the device 310 when the virtual source 1 is the only virtual source.
  • a loudspeaker signal is obtained at the output 322 of FIG. 3, which is a superimposition of the component signals for this loudspeaker due to the different virtual sources 1, 2, 3, ..., n.
  • An arrangement as shown in FIG. 3 would in principle be provided for each loudspeaker 808 in the wave field synthesis module 810, unless that what is preferred for practical reasons always z. B. 2, 4 or 8 lying speakers can be controlled with the same speaker signal.
  • FIG. 1 shows a block diagram of the device according to the invention for level correction in a wave field synthesis system, which has been explained with reference to FIG. 8.
  • the wave field synthesis system comprises the wave field synthesis module 810 and the loudspeaker array 800 for supplying sound to the presentation area 802, the wave field synthesis module 810 being designed to receive an audio signal associated with a virtual sound source and source position information associated with the virtual sound source and component signals for them taking into account speaker position information Calculate speakers based on the virtual source.
  • the device according to the invention first comprises a device 100 for determining a correction value which is based on a desired amplitude state in the demonstration area, the desired amplitude state depending on a position of the virtual source or a type of the virtual source, and the correction value also on Actual amplitude state is based in the demonstration area, which depends on the component signals for the loudspeakers due to the virtual source.
  • the device 100 has an input 102 for obtaining a position of the virtual source when e.g. B. has a point source characteristic, or to obtain information about a type of source when the source z. B. is a source for generating plane waves.
  • the distance of the listener from the source is not necessary to determine the actual state, since the source is already located infinitely far from the listener in the model due to the generated plane waves and has a position-independent level.
  • the device 100 is designed to output a correction value 104 on the output side, which is a device 106 for manipulation an audio signal associated with the virtual source (obtained via an input 108) or for manipulating component signals for the speakers due to a virtual source (obtained via an input 110).
  • an output 112 results in a manipulated audio signal which, according to the invention, then in the wave field synthesis module 200 instead of the original audio signal which is provided at the input 108 is fed in to generate the individual loudspeaker signals 210, 212, ..., 216.
  • the other alternative to manipulation has been used, namely the manipulation of the component signals received via input 110 to some extent, component signals manipulated on the output side are obtained which still have to be summed up loudspeaker-wise (device 116), with or without manipulated component signals from other virtual sources, which are provided via further inputs 118.
  • the device 116 again delivers the loudspeaker signals 210, 212, ..., 216.
  • the alternatives of the upstream manipulation (output 112) or the embedded manipulation (output 114) shown in FIG. 1 are used alternatively to one another can.
  • the weighting factor or correction value which is provided via the input 104 in the device 106, is split to a certain extent, so that partly an upstream manipulation and partly an embedded manipulation is carried out.
  • the upstream manipulation would thus consist in manipulating the audio signal of the virtual source, which is fed into a device 310, 312, 314 or 316, before it is fed in.
  • the embedded manipulation would consist in manipulating the component signals output by devices 310, 312, 314 and 316, respectively, prior to their summation in order to obtain the actual loudspeaker signal.
  • FIGS. 6a and 6b show the embedded manipulation by the manipulation device 106, which is drawn in FIG. 6a as a multiplier.
  • a wave field synthesis device which for example consists of blocks 300, 310 or 302, 312, or 304, 314 and 306 or 316 of FIG. 3, delivers the component signals n, K ⁇ 2 , K 13 for the loudspeaker LSI or Component signals K nl , K n2 and K n3 for the loudspeaker LSn.
  • the first index of Ki j indicates the loudspeaker
  • the second index indicates the virtual source from which the component signal originates.
  • the virtual source 1 is expressed, for example, in the component signal Kn, ..., K nl .
  • the component signals belonging to the source 1 are multiplied , ie the component signals, the index j of which indicates the virtual source 1, take place with the correction factor F x .
  • the manipulation device is upstream of the wave field synthesis device and is effective to correct the audio signals of the sources with the corresponding correction factors in order to obtain manipulated audio signals for the virtual sources, which are then fed to the wave field synthesis device in order to obtain the component signals, which are then are summed up by the respective component summation devices in order to obtain the loudspeaker signals LS for the corresponding loudspeakers, such as, for example, the loudspeaker LSi.
  • the device 100 for determining the correction value is designed as a look-up table 400, which stores position-correction factor-value pairs.
  • the device 100 is preferably further provided with an interpolation device 402, on the one hand to keep the table size of the look-up table 400 within a limited framework, and on the other hand also for current positions of a virtual source that are fed into the interpolation device via an input 404, at least below Use one or more neighboring position correction factors stored in the lookup table Value pairs, which are fed to the interpolation device 402 via an input 406, to generate an interpolated current correction factor at an output 408.
  • the interpolation device 402 can also be omitted, so that the device 100 for determining FIG. 1 performs direct access to the lookup table using position information supplied at an input 410 and a corresponding correction at an output 412 - door factor delivers. If the current position information that is assigned to the audio track of the virtual source does not exactly correspond to a position information that can be found in the look-up table, then a simple rounding-off / rounding-up function can also be assigned to the look-up table in order to find the closest one in the Table to take the stored base value instead of the current base value.
  • the device for determining can be designed to actually carry out a setpoint-actual value comparison.
  • the device 100 of FIG. 1 comprises a setpoint amplitude State determination device 500 and an actual amplitude state determination device 502 for supplying a target amplitude state 504 and an actual amplitude state 506, which are fed to a comparison device 508 which, for example, a quotient of the target amplitude state 504 and the actual Amplitude state 506 is calculated to generate a correction factor 510, which is manipulated by the device 106, which is shown in Fig. 1 is fed for further use.
  • the correction value can also be stored in a look-up table.
  • the target amplitude state calculation is designed to determine a target level at the optimum point for a virtual source configured at a specific position or in a specific type.
  • the target amplitude state determination device 500 does not require any component signals for the target amplitude state calculation, since the target amplitude state is independent of the component signals.
  • component signals are fed to the actual amplitude determination device 502, which, depending on the embodiment, can also receive information about the speaker positions and information about speaker transmission functions and / or information about directional characteristics of the speakers by one Determine the current situation as well as possible.
  • the actual amplitude state determination device 502 can also be designed as an actual measuring system in order to determine an actual level situation at the optimal point for certain virtual sources at certain positions.
  • Fig. 7a shows a diagram for determining a target amplitude state at a predetermined point, which is designated in Fig. 7a with "optimal point" and which is in the demonstration area 802 of Fig. 8.
  • virtual source 700 is shown as a point source that generates a sound field with concentric wavefronts.
  • the level L v of virtual source 700 is known on the basis of the audio signal for virtual source 700.
  • the desired amplitude state or when the amplitude state is a level state the target level at point P in the demonstration area is easily determined obtained in that the level L P at point P is equal to the quotient of L v and a distance r that point P has from virtual source 700.
  • the target amplitude state can thus be easily determined by calculating the level L v of the virtual source and by calculating the distance r from the optimal point to the virtual source.
  • a coordinate transformation of the virtual coordinates into the coordinates of the screening room or a coordinate transformation of the screening room coordinates of point P into the virtual coordinates must typically be carried out, which is known to those skilled in the field of wave field synthesis.
  • the virtual source is an infinitely distant virtual source that generates plane waves at point P
  • the distance between point P and the source is not required to determine the desired amplitude state, since this is in any case almost infinite. In this case, only information about the type of source is required.
  • the target level at point P is then equal to the level which is assigned to the plane wave field which is generated by the virtual source which is infinitely distant.
  • Fig. 7 shows a diagram for explaining the actual amplitude state.
  • different loudspeakers 808 are drawn in FIG. 7b, all of which are fed with their own loudspeaker signal which, for. B. has been generated by the wave field synthesis module 810 of FIG. 8.
  • each loudspeaker is modeled as a point source that outputs a concentric wave field.
  • the law of the concentric wave field is again that the level drops according to 1 / r.
  • the signal generated by the loudspeaker 808 directly on the loudspeaker membrane or the level of this signal can be based on the loudspeaker characteristics and the component signal in the loudspeaker signal LSn, which goes back to the virtual source under consideration.
  • the distance between P and the loudspeaker membrane of the loudspeaker LSn can be calculated, so that a level for the point P can be obtained on the basis of a component signal which is directed to the virtual source under consideration goes back and has been emitted by the loudspeaker LSn.
  • a corresponding procedure can also be carried out for the other loudspeakers of the loudspeaker array, so that there is a number of "partial level values" for point P, which represent a signal contribution from the virtual source under consideration, which has reached the listener at point P from the individual loudspeakers
  • a correction value which is preferably multiplicative, but which, in principle, is additive or subtractive could be get.
  • the desired level for a point is thus calculated on the basis of certain source forms, that is to say the desired amplitude state. It is preferred that the optimal point or the point in the demonstration area that is being viewed lies in the middle of the wave field synthesis system. At this point it should be pointed out that an improvement is achieved even if the point on which the calculation of the target amplitude state is based does not correspond directly to the point which was used to determine the actual amplitude state is.
  • a target amplitude state for any point in the demonstration area and that an actual amplitude condition is also determined for any point in the demonstration area it is in principle sufficient that a target amplitude state for any point in the demonstration area and that an actual amplitude condition is also determined for any point in the demonstration area, but it is preferred that the point to which the actual amplitude condition is related is in a zone around the point for which the Desired amplitude condition has been determined, this zone is preferably less than 2 meters for normal cinema applications. For best results, these points should essentially coincide.
  • the level practically generated by superimposition at this point which is called the optimum point in the demonstration area.
  • the levels of the individual speakers and / or sources are then corrected with this factor according to the invention.
  • FIG. 6b in which the device 914 for summing is drawn in in order to supply the sum signal 916 on the output side, while the scaled object signals 912 are obtained on the input side, which, as can be seen from FIG. 6b, by Scaling the source signals of sources 1, 2, 3 with the corresponding audio object scaling values or correction values F1, F2, F3 can be obtained.
  • the version shown in FIG. 6b is preferred, in which scaling or manipulation or correction is already carried out at the audio object signal level and not at the component level, as shown in FIG. 6a. is carried out.
  • the concept of correction at component level shown in FIG The inventive concept of low-frequency channel generation can be combined in that at least the calculation of the audio object scaling values F1, F2, ..., Fn only has to be carried out once.
  • the subwoofer channel is thus scaled in a manner similar to the scaling of the overall volume of all loudspeakers in the reference point of the wave field synthesis reproduction system.
  • the method according to the invention is therefore suitable for any number of subwoofer loudspeakers, all of which are scaled in such a way that they reach a reference volume at the center of the wave field synthesis system.
  • the reference volume only depends on the position of the virtual sound source. With the known dependencies on the distance of the sound object from the reference point and the associated attenuation of the volume, the individual volume of the respective sound object for each subwoofer channel is preferably calculated. The delay of each source is calculated from the distance between the virtual source and the reference point of the volume scaling.
  • Each subwoofer speaker reproduces the sum of all sound objects converted in this way. How the individual volumes of the subwoofer speakers add up depends on their position. The preferred positioning of Subwooferlautspre- brass, and the selection of the number are far from necessary subwoofers in the already mentioned specialist publications Welti, Todd, “How Many Subwoofers are Enough", 112 th AES Conv. Paper 5602, May 2002, Kunststoff, Germany, Martens, "The impact of decorrelated low-frequency reproduction on auditory spatial imagery: Are two subwoofers better than one?", 16 th AES Conf. Paper, April 1999, Rovaniemi, Finland.
  • the method according to the invention for generating a low-frequency channel can be implemented in hardware or in software.
  • the method according to the invention for level correction as shown in FIG. 1, can be implemented in hardware or in software.
  • the implementation can take place on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which can interact with a programmable computer system in such a way that the method is carried out.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method for level correction when the computer program product runs on a computer.
  • the invention can thus be implemented as a computer program with a program code for carrying out the method if the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

Zur Erzeugung eines Tieftonkanals für einen Tieftonlautsprecher, der an einer vorbestimmten Tieftonlautsprecherposition angeordnet ist, wird zunächst eine Mehrzahl von Audioobjekten bereitgestellt (900), wobei einem Audioobjekt eine Objektposition und eine Objektbeschreibung zugeordnet sind. Hierauf wird aufgrund der Objektbeschreibung eine Berechnung (906) eines Audioobjektskalierungswerts für jedes Audioobjekt durchgeführt, so daß ein Ist-Amplitudenzustand an einer Referenzwiedergabeposition einem Soll-Amplitudenzustand wenigstens nahe kommt. Hierauf wird jedes Objektsignal mit einem zugeordneten Audioobjektskalierungswert skaliert (910), um dann die skalierten Objektsignale zu summieren (914). Aus dem dort erhaltenen Summensignal wird hierauf ein Tieftonkanal für den Tieftonlautsprecher abgeleitet und dem entsprechenden Tieftonlautsprecher bereitgestellt (918). Aufgrund der Skalierung der einzelnen Objektsignale der Audioobjekte ist diese Vorgehensweise unabhängig von einer tatsächlichen Situation eines Multikanalwiedergabesystems im Hinblick auf die Anzahl und Dichte der Lautsprecher sowie im Hinblick auf die Größe des tatsächlich vorhandenen Vorführbereichs.

Description

Vorrichtung und Verfahren zum Erzeugen eines Tieftonkanals
Beschreibung
Die vorliegende Erfindung bezieht sich auf das Erzeugen eines oder mehrerer Tieftonkanäle und insbesondere auf das Erzeugen von einem oder mehreren Tieftonkanälen in Zusam- menhang mit einem Mehrkanal-Audiosystem, wie beispielsweise einem ellenfeldsynthesesystem.
Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektro- nik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.
Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.
Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte ellenfeldsynthese (WFS; WFS = Wave-Field Synthesis) , wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A.J.; de Vries, D. ; Vogel, P. : Acoustic control by Wave- field Synthesis. JASA 93, 1993) .
Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden nächstes Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese- Anwendungen für den Konsumerbereich auf den Markt kommen.
Die Grundidee von WFS basiert auf der Anwendung des Huy- gens' sehen Prinzips der Wellentheorie:
Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray) , jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. In einem Raum mit reflektierenden Wänden können auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab. Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt. Die Technik der Wellenfeldsynthese kann jedoch ebenfalls vorteilhaft eingesetzt werden, um eine visuelle Wahrnehmung um eine entsprechende räumliche Audiowahrnehmung zu ergänzen. Bisher stand bei der Produktion in virtuellen Studios die Vermittlung eines authentischen visuellen v Eindrucks der virtuellen Szene im Vordergrund. Der zum Bild passende akustische Eindruck wird in der Regel durch manuelle Arbeitsschritte in der sogenannten Postproduktion nachträglich dem Audiosignal aufgeprägt oder als zu aufwendig und zeitintensiv in der Realisierung eingestuft und daher vernachlässigt. Dadurch kommt es üblicherweise zu einem Widerspruch der einzelnen Sinnesempfindungen, der dazu führt, daß der entworfene Raum, d . h. die entworfene Szene, als weniger authentisch empfunden wird. In der Mehrzahl der Fälle wird ein Konzept verfolgt, bei dem es darum geht, einen akustischen Gesamteindruck der visuell abgebildeten Szenerie zu bekommen. Dieses lässt sich gut mit dem aus der Bildgestaltung stammenden Begriff der „Totalen" umschreiben. Dieser „totale" Klangeindruck bleibt meist über alle Einstellungen in einer Szene konstant, obwohl sich der optische Blickwinkel auf die Dinge meist stark ändert. So werden optische Details durch ent- sprechende Einstellungen herausgehoben oder in den Hintergrund gestellt. Auch Gegenschüsse bei der filmischen Dialoggestaltung werden vom Ton nicht nachvollzogen.
Daher besteht der Bedarf, den Zuschauer akustisch in eine audiovisuelle Szene einzubetten. Hierbei bildet die Leinwand oder Bildfläche die Blickrichtung und den Blickwinkel des Zuschauers. Dies bedeutet, daß der Ton dem Bild in der Form nachgeführt werden soll, daß er stets mit dem gesehenen Bild übereinstimmt. Dies wird insbesondere für virtuel- le Studios noch wichtiger, da es typischerweise keine Korrelation zwischen dem Ton der Moderation beispielsweise und der Umgebung gibt, in der sich der Moderator gerade befindet. Um einen audiovisuellen Gesamteindruck der Szene zu bekommen, muß ein zum gerenderten Bild passender Raumeindruck simuliert werden. Eine wesentliche subjektive Eigenschaft bei einem solchen klanglichen Konzept ist in diesem Zusammenhang der Ort einer Schallquelle, wie ihn ein Betrachter beispielsweise einer Kinoleinwand empfindet.
Im Audiobereich läßt sich also durch die Technik der Wellenfeldsynthese (WFS) ein guter räumlicher Klang für eine großen Hörerbereich erzielen. Wie es ausgeführt worden ist, basiert die Wellenfeldsynthese auf dem Prinzip von Huygens, nach welchem sich Wellenf onten durch Überlagerung von Elementarwellen formen und aufbauen lassen. Nach mathematisch exakter theoretischer Beschreibung müßten unendlich viele Quellen in unendlich kleinem Abstand für die Erzeugung der Elementarwellen genutzt werden. Praktisch werden jedoch endlich viele Lautsprecher in einem endlich kleinen Abstand zueinander genutzt. Jeder dieser Lautsprecher wird gemäß dem WFS-Prinzip mit einem Audiosignal von einer virtuellen Quelle, das ein bestimmtes Delay und einen bestimmten Pegel hat, angesteuert. Pegel und Delays sind in der Regel für alle Lautsprecher unterschiedlich.
Wie es bereits ausgeführt worden ist, arbeitet das ellen- feldsynthesesystem auf der Basis des Huygens-Prinzips und rekonstruiert eine gegebene Wellenform beispielsweise einer virtuellen Quelle, die in einem bestimmten Abstand zu einem Vorführbereich bzw. zu einem Hörer in dem Vorführbereich angeordnet ist durch eine Vielzahl von Einzelwellen. Der Wellenfeldsynthesealgorithmus erhält somit Informationen über die tatsächliche Position eines Einzellautsprechers aus dem Lautsprecherarray, um dann für diesen Einzellautsprecher ein Komponentensignal zu berechnen, das dieser Lautsprecher dann letztendlich abstrahlen muß, damit beim Zuhörer eine Überlagerung des Lautsprechersignals von dem einen Lautsprecher mit den Lautsprechersignalen der anderen aktiven Lautsprecher eine Rekonstruktion dahingehend durchführt, daß der Hörer den Eindruck hat, daß er nicht von vielen Einzellautsprechern „beschallt" wird, sondern ledig- lieh von einem einzigen Lautsprecher an der Position der virtuellen Quelle.
Für mehrere virtuelle Quellen in einem Wellenfeldsynthese- setting wird der Beitrag von jeder virtuellen Quelle für jeden Lautsprecher, also das Komponentensignal der ersten virtuellen Quelle für den ersten Lautsprecher, der zweiten virtuellen Quelle für den ersten Lautsprecher, etc. berechnet, um dann die Komponentensignale aufzuaddieren, um schließlich das tatsächliche Lautsprechersignal zu erhal- ten. Im Falle von beispielsweise drei virtuellen Quellen würde die Überlagerung der Lautsprechersignale aller aktiven Lautsprecher beim Hörer dazu führen, daß der Hörer nicht den Eindruck hat, daß er von einem großen Array von Lautsprechern beschallt wird, sondern daß der Schall, den er hört, lediglich von drei an speziellen Positionen positionierten Schallquellen kommt, die gleich den virtuellen Quellen sind. Die Berechnung der Komponentensignale erfolgt in der Praxis meist dadurch, daß das einer virtuellen Quelle zugeordnete Audiosignal je nach Position der virtuellen Quelle und Position des Lautsprechers zu einem bestimmten Zeitpunkt mit einer Verzögerung und einem Skalierungsfaktor beaufschlagt wird, um ein verzögertes und/oder skaliertes Audiosignal der virtuellen Quelle zu erhalten, das das Lautsprechersignal unmittelbar darstellt, wenn nur eine virtuellen Quelle vorhanden ist, oder das nach Addition mit weiteren Komponentensignalen für den betrachteten Lautsprecher von anderen virtuellen Quellen dann zum Lautsprechersignal für den betrachteten Lautsprecher beiträgt.
Typische Wellenfeldsynthesealgorithmen arbeiten unabhängig davon, wie viele Lautsprecher im Lautsprecherarray vorhanden sind. Die der Wellenfeldsynthese zugrundeliegende Theorie besteht darin, daß jedes beliebige Schallfeld durch eine unendlich hohe Anzahl von Einzellautsprechern exakt rekonstruiert werden kann, wobei die einzelnen Einzellaut- Sprecher unendlich nahe zueinander angeordnet sind. In der Praxis kann jedoch weder die unendlich hohe Anzahl noch die unendlich nahe Anordnung realisiert werden. Statt dessen existiert eine begrenzte Anzahl von Lautsprechern, die zudem in bestimmten vorgegebenen Abständen zueinander angeordnet sind. Damit wird in realen Systemen immer nur eine Annäherung an die tatsächliche Wellenform erreicht, die stattfinden würde, wenn die virtuelle Quelle tatsächlich vorhanden wäre, also eine reale Quelle sein würde.
Ferner existieren verschiedene Szenarien, dahingehend, daß das Lautsprecherarray nur, wenn ein Kinosaal betrachtet wird, z. B. auf der Seite der Kinoleinwand angeordnet ist. In diesem Fall würde das Wellenfeldsynthesemodul Lautsprechersignale für diese Lautsprecher erzeugen, wobei die Lautsprechersignale für diese Lautsprecher normalerweise dieselben sein werden wie für entsprechende Lautsprecher in einem Lautsprecherarray, das sich, nicht nur über die Seite eines Kinos beispielsweise erstreckt, an der die Leinwand angeordnet ist, sondern das auch links, rechts und hinter dem Zuhörerraum angeordnet ist. Dieses „360°"- Lautsprecherarray wird natürlich eine bessere Annäherung an ein exaktes Wellenfeld schaffen als lediglich ein einseiti- ges Array, beispielsweise vor den Zuschauern. Dennoch sind die Lautsprechersignale für die Lautsprecher, die sich vor den Zuschauern befinden, in beiden Fällen die gleichen. Dies bedeutet, daß ein Wellenfeldsynthesemodul typischerweise keine Rückkopplung dahingehend erhält, wie viele Lautsprecher vorhanden sind bzw. ob es sich um ein einseitiges oder mehrseitiges oder gar um ein 360°-Array handelt oder nicht. Anders ausgedrückt berechnet eine Wellenfeld- syntheseeinrichtung ein Lautsprechersignal für einen Laut¬ sprecher aufgrund der Position des Lautsprechers und unab- hängig davon, welche weiteren Lautsprecher noch vorhanden sind oder nicht vorhanden sind.
Hierin besteht zwar eine wesentliche Stärke des Wellenfeld- synthesealgorithmus dahingehend, daß er optimal modular anpaßbar an verschiedene Gegebenheiten ist, indem einfach die Koordinaten der vorhandenen Lautsprecher in ganz unterschiedlichen Vorführräumen gegeben sind. Nachteilig ist jedoch, daß neben der unter Umständen hinnehmbaren schlechteren Rekonstruktion des aktuellen Wellenfeldes erhebliche Pegelartefakte entstehen. So ist für einen realen Eindruck nicht nur entscheidend, in welcher Richtung sich die virtuelle Quelle bezüglich des Zuhörers befindet, sondern auch wie laut der Zuhörer die virtuelle Quelle hört, also welcher Pegel beim Zuhörer aufgrund einer speziellen virtuellen Quelle „ankommt" . Der bei einem Zuhörer ankommende Pegel, der auf eine betrachtete virtuelle Quelle bezogen ist, ergibt sich aus der Überlagerung der einzelnen Signale der Lautsprecher.
Wird beispielsweise der Fall betrachtet, daß sich ein Lautsprecherarray von 50 Lautsprechern vor dem Zuhörer befindet, und daß das Audiosignal der virtuellen Quelle durch die Wellenfeldsyntheseeinrichtung in Komponentensig- nale für die 50 Lautsprecher abgebildet wird, derart, daß das Audiosignal mit unterschiedlicher Verzögerung und unterschiedlicher Skalierung von den 50 Lautsprechern gleichzeitig abgestrahlt wird, so empfindet ein Zuhörer der virtuellen Quelle einen Pegel der Quelle, der sich aus den Einzelpegeln der Komponentensignale der virtuellen Quelle in den einzelnen Lautsprechersignalen ergibt.
Wird dieselbe Wellenfeldsyntheseeinrichtung nunmehr für ein reduziertes Array verwendet, bei dem sich beispielsweise nur 10 Lautsprecher vor dem Zuhörer befinden, so ist es ohne weiteres einsichtig, daß der Pegel des Signals von der virtuellen Quelle, der sich am Ohr des Zuhörers ergibt, abgenommen hat, da gewissermaßen 40 Komponentensignale der nunmehr fehlenden Lautsprecher „fehlen".
Es kann auch der alternative Fall auftreten, bei dem sich z. B. zunächst links und rechts des Zuhörers Lautsprecher befinden, die in einer bestimmten Konstellation gegenphasig angesteuert werden, so daß sich die Lautsprechersignale von zwei gegenüberliegenden Lautsprechern aufgrund einer bestimmten von der Wellenfeldsyntheseeinrichtung berechneten Verzögerung aufheben. Wird nunmehr in einem reduzierten System z. B. auf die Lautsprecher auf der einen Seite des Zuhörers verzichtet, so erscheint die virtuelle Quelle auf einmal wesentlich lauter als sie eigentlich sein dürfte.
Während für statische Quellen zur Pegelkorrektur noch an konstante Faktoren gedacht werden könnte, ist diese Lösung dann nicht mehr tragbar, wenn die virtuellen Quellen nicht statisch sind, sondern sich bewegen. Dies ist gerade ein wesentliches Merkmal der Wellenfeldsynthese, daß sie auch und besonders sich bewegende virtuelle Quellen verarbeiten kann. Eine Korrektur mit einem konstanten Faktor würde hier zu kurz greifen, da der konstante Faktor zwar für eine Position stimmen würde, jedoch für eine andere Position der virtuellen Quelle Artefakt-steigernd wirken würde. Wellenfeldsyntheseeinrichtungen sind ferner in der Lage, mehrere verschiedene Quellenarten nachzubilden. Eine prominente Quellenform ist die Punktquelle, bei der der Pegel proportional 1/r abnimmt, wobei r der Abstand zwischen einem Zuhörer und der Position der virtuellen Quelle ist. Eine andere Quellenform ist eine Quelle, die ebene Wellen aussendet. Hier bleibt der Pegel unabhängig von der Entfernung zum Hörer konstant, da ebene Wellen durch Punktquellen erzeugt werden können, die in einem unendlichen Abstand angeordnet sind.
Gemäß der Wellenfeldsynthesetheorie stimmt bei zweidimensi- onalen Lautsprecheranordnungen die Pegeländerung abhängig von r bis auf einen vernachlässigbaren Fehler mit der natürlichen Pegeländerung überein. Je nach Position der Quelle können sich jedoch unterschiedliche, zum Teil erhebliche Fehler im absoluten Pegel ergeben, welche aus der Nutzung einer endlichen Anzahl von Lautsprechern statt der theoretisch geforderten unendlichen Anzahl von Lautspre- ehern resultiert, wie es vorstehend dargelegt worden ist.
Eine weitere Problematik, die bei Mehrkanalwiedergabesystemen und insbesondere bei Wellenfeldsynthesesystemen existiert, die nicht nur beispielsweise fünf oder sieben Laut- Sprecher verwenden, sondern eine wesentlich höhere Anzahl von Lautsprechern verwenden, besteht darin, daß die Lautsprecher aufgrund ihrer hohen Anzahl zu erheblichen Kosten führen können. Um die Kosten der Lautsprecher zu reduzieren, wird bei solchen bestehenden Fünf-Kanal-Systemen oder Sieben-Kanal-Systemen das sogenannte Subwooferprinzip eingesetzt. Das Subwooferprinzip dient bei Multikanalwie- dergabesystemen zur Einsparung von teuren und großen Tieftonlautsprechern. Verwendet wird hierbei ein Tieftonkanal, der nur Musiksignale mir Frequenzen tiefer einer Grenzfre- quenz von etwa 120 Hz enthält. Dieser Tieftonkanal steuert einen Tieftonlautsprecher mit großer Membranfläche an, womit hohe Schalldrücke gerade bei tiefen Frequenzen erzielt werden. Beim Subwooferprinzip wird ausgenutzt, daß das menschliche Gehör tieffrequente Tone in der Richtung sehr schwer lokalisieren also orten kann. In derzeitigen Systemen wird bereits bei der Tonmischung ein extra Tieftonkanal für eine spezielle Lautsprecheranordnung (raumliche Anordnung) gemischt. Beispiele für solche ultikanalwiedergabesysteme sind Dolby Digital, Sony SDDS und DTS . Bei diesen Multika- nalformaten kann der Subwooferkanal unabhängig von der zu beschallenden Raumgroße gemischt werden, da sich die raumlichen Verhaltnisse nur im maßstäblichen Sinne verandern. Die Lautsprecheranordnung bleibt maßstablich die gleiche.
Mit der Wellenfeldsynthese (engl. Wave Field Synthesis - WFS) kann ein großer Zuschauerbe reich beschallt werden. Schallereignisse können in ihrer räumlichen Tiefe wiederge¬ geben werden. Zu diesem Zweck wird im Zuschauerbereich das komplette Schallfeld der einzelnen Schallereignisse reproduziert. Dies erfolgt durch eine große Anzahl von Lautspre- ehern. Für große Installationen werden etwa 500 oder mehr Lautsprechersysteme benotigt. Wollte man jedes einzelne Lautsprechersystem mit einem leistungsstarken Tieftonlautsprecher ausrüsten, wurden sehr hohe Kosten entstehen.
Es wurde erwähnt, daß für bestehende Multikanalformate eine spezielle Lautsprecheranordnung erforderlich ist, um einen speziellen Subwooferkanal zu mischen. Allerdings kann die Lautsprecheranordnung maßstablich verändert werden, ohne die entsprechende Mischung andern zu müssen. Das Verhältnis der Abstände der einzelnen Lautsprecher zueinander bleibt bestehen. Dies alles ist jedoch bei der WFS nicht möglich, da die Anzahl der Lautsprecherkanale von dem Umfang der zu beschallenden Flache des WFS-Wiedergabesystems abhangt. Deshalb können auch nicht die einzelnen Lautsprecherkanale abgespeichert werden, was zudem recht speicheraufwendig wäre, wenn man Systeme mit 500 oder mehr Audiokanalen betrachtet. Deshalb werden nur die zu simulierenden, virtuellen Schallereignisse abgespeichert. Erst bei der Wieder- gäbe werden die einzelnen Lautsprecherkanale mit Hilfe des WFS-Algorithmus berechnet .
Zum einen hangt also d e Anzahl der Lautsprecherkanale mit dem Umfang der Zuschauerflache zusammen. Zusatzlich wird die Anzahl der Lautsprecherkanale dadurch bestimmt, wie dicht die Lautsprecher auf den Umfang der zu beschallenden Flache verteilt sind. Von dieser Dichte hangt die Gute des WFS-Wiedergabesystems ab. Mit der Anzahl der Lautsprecher- kanale und der Dichte der Lautsprecher hangt die Lautstarke zusammen, da sich ja alle Lautsprecherkanale zu einem Wellenfeld aufsummieren. Die Lautstarke eines WFS-Systems ist also nicht ohne weiteres vorbestimmt. Die Lautstarke des Subwooferkanals ist allerdings mit den bekannten Para- metern des elektrischen Verstärkers und des Lautsprechers vorbestimmt. Es ist demnach nicht möglich, eine Mischung eines Subwooferkanals von einem WFS-Syste fehlerfrei auf ein WFS-System mit anderer Lautsprecherdichte und Lautsprecheranzahl zu übertragen. Die Lautstarken von dem Tie ton- System einerseits und von dem Mittel-/Hochtonsystem andererseits wurden nicht übereinstimmen.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Konzept zum Erzeugen eines Tieftonkanals in einem Multika- nalwiedergabesystem zu schaffen, das eine Reduzierung von Pegel-Artefakten ermöglicht.
Diese Aufgabe wird durch eine Vorrichtung zum Erzeugen eines Tieftonkanals nach Patentanspruch 1 oder ein Verfah- ren zum Erzeugen eines Tieftonkanals nach Patentanspruch 25 oder durch ein Computerprogramm nach Patentanspruch 26 gelost .
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß der Tieftonkanal für einen Tieftonlautsprecher bzw. daß mehrere Tieftonkanale für mehrere Tieftonlautsprecher in einem Multikanalsystem nicht bereits in einem Tonmischvorgang erzeugt wird, der unabhängig von einem tatsachlichen Wiedergaberaum stattfindet, sondern daß auf den tatsächlichen Wiedergaberaum bezug genommen wird, indem die vorbestimmte Position des Tieftonlautsprechers einerseits sowie Eigenschaften von Audioobjekten, die typischerweise virtu- eile Quellen darstellen, andererseits ebenfalls berücksichtigt werden, um den Tieftonkanal zu erzeugen. Insbesondere wird von Audioobjekten ausgegangen, wobei einem Audioobjekt eine Objektbeschreibung einerseits sowie ein Objektsignal andererseits zugeordnet ist. Abhängig von der Objektbe- Schreibung wird für jedes Audioobjektsignal ein Audioobjektskalierungswert berechnet, der dann dazu verwendet wird, um jedes Objektsignal zu skalieren, um dann die skalierten Objektsignale aufzusummieren, um ein Summensignal zu erhalten. Aus dem Summensignal wird dann der Tief- tonkanal abgeleitet, der dem Tieftonlautsprecher zugeführt wird.
Für den Fall von Quellen, die ebene Wellen ausstrahlen, bei denen somit eine Position im Unendlichen angenommen wird, spielt die virtuelle Position der Quelle einerseits sowie eine Referenzwiedergabeposition andererseits, für die eine Referenzlautstärke gefordert wird, keine Rolle. Dies ist jedoch nicht der Fall bei üblichen punktförmig angenommenen Quellen, wie sie beispielsweise in einem Filmsetting dann auftreten, wenn Dialoge etc. stattfinden. In diesem Fall wird eine Skalierung des Audioobjektsignals, das von einer virtuellen Quelle stammt, die an einer virtuellen Position angeordnet ist, dahingehend vorgenommen, daß eine tatsächliche Lautstärke bzw. ein I st-Amplitudenzustand aufgrund dieser virtuellen Quelle an der Referenzwiedergabeposition einem Soll-Amplitudenzustand entspricht. Der Soll- Amplitudenzustand hängt von der Lautstärke des Audioobjektsignals, das der virtuellen Quelle zugeordnet ist, und dem Abstand zwischen der virtuellen Position und der Referenz- Wiedergabeposition ab. Diese Berechnung von Audioobjektska- lierungswerten wird für sämtliche virtuellen Quellen vorgenommen, um dann die Audioobjektsignale jeder virtuellen Quelle mit dem entsprechenden Skalierungswert zu skalieren. Die skalierten Audioobjektsignale werden dann aufsummiert, um ein Summensignal zu erhalten. Aus diesem Summensignal wird dann wieder in dem Fall, bei dem nur ein einziger Tieftonlautsprecher vorhanden ist, der Tieftonkanal abge- leitet. Dies kann durch einfache Tiefpaßfilterung erfolgen.
An dieser Stelle sei darauf hingewiesen, daß die Tiefpaßfilterung bereits mit den noch unskalierten Audioobjektsignalen durchgeführt werden kann, so daß lediglich bereits Tiefpaßsignale weiter verarbeitet werden, so daß das Summensignal bereits der Tieftonkanal selbst ist.
Erfindungsgemäß wird es jedoch bevorzugt, die Extraktion des Tieftonkanals erst nach der Auf summierung der skalier- ten Objektsignale durchzuführen, um eine möglichst gute Annäherung der Lautstärke der Tieftonsignale im Vorführraum einerseits und der Lautstärke der Mittel- und Hochtonsignale im Vorführraum andererseits zu erhalten.
Erfindungsgemäß wird somit ein Subwooferkanal nicht schon beim Tonmischvorgang aus den virtuellen Quellen, also dem Klangmaterial für die Wellenfelds ynthese gemischt. Die Mischung erfolgt statt dessen automatisch bei der Wiedergabe im Wellenfeldsynthesesystem unabhängig von der Größe des Systems und der Anzahl von Lautsprechern. Die Lautstärke des Subwoofersignals hängt dabei von der Anzahl und vom Umfang der umsäumten Fläche des We llenfeldsynthesesystems ab. Selbst vorgeschriebene Lautsprecheranordnungen müssen nicht mehr eingehalten werden, da Lautsprecherposition und Lautsprecheranzahl in die Erzeugung des Tieftonkanals mit einbezogen werden.
Die vorliegende Erfindung ist nicht nur auf Wellenfeldsyn- thesesysteme begrenzt, sondern kann allgemein auf beliebige Multikanalwiedergabesysteme angewendet werden, bei denen die Mischung und Erzeugung, also das Rendering, der Wiedergabekanäle, also der Lautsprecherkanale selbst, erst bei der tatsächlichen Wiedergabe erfolgt. Systeme dieser Art sind beispielsweise 5.1-Systeme, 7.1-Systeme etc.
Vorzugsweise wird die erfindungsgemäße Tieftonkanalerzeu- g ng mit einer Pegelartefaktreduzierung kombiniert, um Pegelkorrekturen in einem Wellenfeldsynthesesystem nicht nur für Tieftonkanäle durchzuführen, sondern für sämtliche Lautsprecherkanale, um unabhängig von Anzahl und Position der eingesetzten Lautsprecher bezüglich des verwendeten Wellenfeldsynthesealgorithmus zu sein.
Bei bevorzugten Ausführungsbeispielen der vorliegenden Erfindung, bei denen lediglich ein einziger Tieftonkanal und damit ein einziger Tieftonlautsprecher vorgesehen ist, wird der Tieftonlautsprecher nicht in einer Referenzwiedergabeposition angeordnet sein, für die eine optimale Pegelkorrektur durchgeführt wird. In diesem Fall wird das Summensignal erfindungsgemäß unter Berücksichtigung der Position des Tieftonlautsprechers unter Verwendung eines zu berechnenden Lautsprecherskalierungswerts skaliert. Diese Skalierung wird vorzugsweise lediglich eine Amplitudenskalierung und keine Phasenskalierung sein, wobei hier der Tatsache Rechnung getragen wird, daß das Ohr bei den im Tieftonkanal vorhandenen tiefen Frequenzen keine gute Lokalisierung hat, sondern lediglich eine genaue Amplitu- den-/Lautstärkewahrnehmung zeigt. Alternativ oder zusätzlich kann als Skalierung eine Phasenskalierung eingesetzt werden, falls eine solche in einem Anwendungsszenario erwünscht ist.
Für den Fall der Positionierung mehrerer Tieftonlautsprecher wird für jeden einzelnen Tieftonlautsprecher ein eigener Tieftonkanal erzeugt. Die Tieftonkanäle der einzelnen Tieftonlautsprecher unterscheiden sich vorzugsweise lediglich in ihrer Amplitude, nicht jedoch in dem Signal an sich. Alle Tieftonlautsprecher senden somit dasselbe Summensignal ab, jedoch mit unterschiedlicher Amplitudenska- lierung, wobei die Amplitudenskalierung für einen einzelnen Tieftonlautsprecher abhängig vom Abstand des einzelnen Tief onlautsprechers zum Referenzwiedergabepunkt erfolgt. Darüber hinaus wird erfindungsgemäß sichergestellt, daß die Gesamtlautstärke aller überlagerten Tie tonkanäle an der Referenzwiedergabeposition gleich der Lautstärke des Summensignals ist oder der Lautsprecher des Summensignals wenigstens innerhalb eines vorbestimmten Toleranzbereichs entspricht. Hierzu wird für jeden einzelnen Tieftonkanal ein eigener Lautsprecherskalierungswert berechnet, mit dem dann das Summensignal entsprechend skaliert wird, um den einzelnen Tieftonkanal zu erhalten.
Die Verwendung eines Subwooferkanals ist insbesondere dahingehend vorteilhaft, daß er zu einer deutlichen Preis- reduktion führt, da die einzelnen Lautsprecher z. B. eines Wellenfeldsynthesesystems wesentlich preisgünstiger aufgebaut werden können, da sie keine Tieftonedgenschaften haben müssen. Dagegen genügt nur einer oder einige wenige, wie beispielsweise drei bis vier, Subwooferlaiutsprecher, um die sehr tiefen Frequenzen mit hohem Schalldruck durch eine entsprechend große Membranfläche zu realisieren.
Die vorliegende Erfindung ist ferner dahingehend vorteilhaft, daß der eine bzw. die mehreren Tieftonkanäle für beliebige LautsprecheraufStellungen und Multikanalformate automatisch erzeugt werden kann, wobei dies insbesondere im Rahmen eines Wellenfeldsynthesesystems nur einen geringen Mehraufwand erfordert, da das Wellenfeldsynthesesystem ohnehin eine Pegelkorrektur durchführt.
Bezüglich der nötigen Anzahl von Tieftonlautsprechern sowie der optimalen Positionierung von einem oder mehreren Tieftonlautsprechern wird auf die Fachliteratur verwiesen, von der insbesondere Welti, Todd, „How Many Subwoofers are Enough", 112th AES Conv. Paper 5602, Mai 2002, München, Deutschland, Martens, „The impact of decorrelated low- frequency reproduction on auditory spatial imagery: Are two subwoofers better than one?", 16th AES Conf. Paper, April 1999, Rovaniemi, Finnland, genannt werden.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung, bei dem lediglich ein einziger Tieftonlautsprecher eingesetzt wird, wird zunächst die Einzellautstärke und vorzugsweise auch Verzögerung jeder virtuellen Quelle, also jedes Klangobjekt bzw. Audioobjekt, bezogen auf die Referenzwiedergabeposition berechnet . Hierauf wird das Audiosignal jeder virtuellen Quelle entsprechend skaliert und verzögert, um dann alle virtuellen Quellen aufzusummie- ren. Hierauf wird die Gesamtlautstärke und Verzögerung des Subwoofers in Abhängigkeit von dessen Abstand zum Bezugspunkt berechnet, falls der Subwoofer nicht bereits im Bezugspunkt angeordnet ist.
Im Falle von mehreren Subwoofern wird es bevorzugt, zunächst die Einzellautstärken aller Subwoofer in Abhängigkeit von ihren Abständen zum Bezugspunkt zu bestimmen. Hierbei wird es bevorzugt, als Randbedingung einzuhalten, daß die Summe aller Subwooferkanäle gleich der der Referenzlautstärke an der Referenzwiedergabeposition ist, die vorzugsweise dem Mittelpunkt des Wellenfeldsynthesesystems entspricht. Es werden also entsprechende Skalierungsfakto- ren pro Subwoofer berechnet, wobei jedoch zunächst wieder Einzellautstärke und Verzögerung jeder virtuellen Quelle bezogen auf den Referenzpunkt bestimmt werden. Dann wird wieder jede virtuelle Quelle entsprechend skaliert und optional verzögert, um dann alle virtuellen Quellen zu dem Summensignal aufzusummieren, das dann mit den einzelnen Skalierungsfaktoren für jeden Subwooferkanal skaliert wird, um die einzelnen Tieftonkanäle für die verschiedenen Tieftonlautsprecher zu erhalten.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen: Fig. 1 ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Pegel-Korrigieren in einem Wellen- feldsynthesesystem;
Fig. 2 ein Prinzipschaltbild einer Wellenfeldsyntheseum- gebung, wie sie für die vorliegende Erfindung einsetzbar ist;
Fig. 3 eine detailliertere Darstellung des in Fig. 2 gezeigten Wellenfeldsynthesemoduls;
Fig. 4 ein Blockschaltbild einer erfindungsgemäßen Einrichtung zum Ermitteln des Korrekturwerts gemäß einem Ausführungsbeispiel mit Nachschlagta- belle und gegebenenfalls Interpolationseinrichtung;
Fig. 5 ein weiteres Ausführungsbeispiel der Einrichtung zum Ermitteln von Fig. 1 mit Sollwert/Istwert- Ermittlung und anschließendem Vergleich;
Fig. 6a ein Blockschaltbild eines Wellenfeldsynthesemoduls mit eingebetteter Manipulationseinrichtung zur Manipulation der Komponentensignale;
Fig. 6b ein Blockschaltbild eines weiteren Ausführungsbeispiels der vorliegenden Erfindung mit einer vorgeschalteten Manipulationseinrichtung;
Fig. 7a eine Skizze zur Erläuterung des Soll- Amplitudenzustands an einem Optimal-Punkt in einem Vorführbereich;
Fig. 7b eine Skizze zur Erläuterung des Ist- Amplitudenzustands an einem Optimal-Punkt in dem Vorführbereich; Fig. 8 ein prinzipielles Blockschaltbild eines Wellen- feldsynthesesystems mit Wellenfeldsynthesemodul und Lautsprecherarray in einem Vorführbereich;
Fig. 9 ein Blockschaltbild einer erfindungsgemäßen Vorrichtung zum Erzeugen eines Tieftonkanals;
Fig. 10 eine bevorzugte Ausgestaltung der Einrichtung zum Bereitstellen des Tieftonkanals für mehrere Tief- tonlautsprecher; und
Fig. 11 eine schematische Darstellung eines Vorführbereichs mit einer Mehrzahl von Einzellautsprechern sowie zwei Subwoofern.
Wie es bereits ausgeführt worden ist, werden durch den Wellenfeldsynthesealgorithmus für jeden Lautsprecherkanal und jede virtuelle Quelle sowohl Lautstärke als auch Verzögerung berechnet. Dabei muß die Position des einzelnen Lautsprechers bekannt sein. Hierzu wird es erfindungsgemäß bevorzugt, die Gesamtlautstärke aller Lautsprecher in einem Bezugspunkt des Wellenfeldsynthesewiedergabesystems auf eine absolute Referenzlautstärke, also den Soll- Amplitudenzustand, zu skalieren. Diese Skalierung der einzelnen Audioobjektsignale für die einzelnen Wellenfeld- synthesesystemlautsprecher, also die Einzellautsprecher des Arrays, basiert auf der Erkenntnis, daß die Unzulänglichkeiten eines Wellenfeldsynthesesystems mit einer (praktisch realisierbaren) endlichen Anzahl von Lautsprechern dahinge- hend zumindest abgemildert werden können, wenn eine Pegel- Korrektur durchgeführt wird, dahingehend, daß entweder das einer virtuellen Quelle zugeordnete Audiosignal vor der Wellenfeldsynthese oder die Komponentensignale für verschiedene Lautsprecher, die auf eine virtuelle Quelle zurückgehen, nach der Wellenfeldsynthese unter Verwendung eines Korrekturwerts manipuliert werden, um eine Abweichung zwischen einem Soll-Amplitudenzustand in einem Vorführbereich und einem Ist-Amplitudenzustand in dem Vor ührbereich zu reduzieren. Der Soll-Amplitudenzustand ergibt sich dadurch, daß abhängig von der Position der virtuellen Quelle, und z. B. abhängig von einem Abstand eines Zuhörers bzw. eines optimalen Punkts in einem Vorführbereich zu der virtuellen Quelle und gegebenenfalls unter Berücksichtigung der Wellenart ein Soll-Pegel als Beispiel für einen Soll- Amplitudenzustand ermittelt wird, und daß ferner ein Ist- Pegel als Beispiel für einen Ist-Amplitudenzustand beim Hörer ermittelt wird. Während der Soll-Amplitudenzustand unabhängig von der tatsächlichen Gruppierung und Art der Einzellautsprecher lediglich auf der Basis der virtuellen Quelle bzw. deren Position ermittelt wird, wird die Ist- Situation unter Berücksichtigung der Positionierung, Art und Ansteuerung der Einzellautsprecher des Lautsprecherar- rays berechnet.
So kann der Schallpegel am Ohr des Hörers im optimalen Punkt innerhalb des Vorführbereichs aufgrund eines Komponentensignale der virtuellen Quelle, das über einen Einzel- lautsprecher abgestrahlt wird, ermittelt werden. Entsprechend kann für die anderen Komponentensignale, die auf die virtuelle Quelle zurückgehen und über andere Lautsprecher abgestrahlt werden, ebenfalls der Pegel am Ohr des Hörers im optimalen Punkt innerhalb des Vorführbereichs ermittelt werden, um dann durch Zusammenfassung dieser Pegel den tatsächlichen Ist-Pegel am Ohr des Hörers zu erhalten. Hierzu kann die Übertragungsfunktion jedes einzelnen Lautsprechers sowie der Pegel des Signals an dem Lautsprecher und der Abstand des Zuhörers im betrachteten Punkt inner- halb des Vorführbereichs zu dem einzelnen Lautsprecher berücksichtigt werden. Für einfachere Ausführungen kann die Sendecharakteristik des Lautsprechers dahingehend angenommen werden, daß er als ideale Punktquelle arbeitet. Für aufwendigere Implementierungen kann jedoch auch die Richt- Charakteristik des einzelnen Lautsprechers berücksichtigt werden. Ein wesentlicher Vorteil dieses Konzepts besteht dari , daß bei einem Ausführungsbeispiel, bei dem Schallpegel betrachtet werden, lediglich multiplikative Skalierungen auftreten, dahingehend, daß für einen Quotient zwischen dem Soll- Pegel und dem Ist-Pegel, der den Korrekturwert ergibt, nicht der absolute Pegel beim Zuhörer oder der absolute Pegel der virtuellen Quelle erforderlich ist. Statt dessen hängt der Korrekturfaktor lediglich von der Position der virtuellen Quelle (und damit von den Positionen der Einzel- lautsprecher) sowie des optimalen Punkts innerhalb des Vorführbereichs ab. Diese Größen sind jedoch im Hinblick auf die Position des optimalen Punkts und die Positionen und Übertragungscharakteristika der einzelnen Lautsprecher fest vorgegeben und nicht von einem abgespielten Stück abhängig.
Daher kann das Konzept rechenzeiteffizient als Nachschlagtabelle implementiert werden, dahingehend, daß eine Nachschlagtabelle erzeugt und verwendet wird, die Position- Korrekturfaktor-Wertepaare umfaßt, und zwar für sämtliche oder einen wesentlichen Teil von möglichen virtuellen Positionen. In diesem Fall ist dann kein On-line- Sollwertermittlungs-, Istwertermittlungs- und Soll- wert/Istwert-Vergleichsalgorithmus durchzuführen. Auf diese unter Umständen rechenzeitaufwändigen Algorithmen kann verzichtet werden, wenn auf der Basis einer Position einer virtuellen Quelle auf die Nachschlagtabelle zugegriffen wird, um von dort den für diese Position der virtuellen Quelle gültigen Korrekturfaktor zu ermitteln. Um die Re- chen- und Speicher-Effizienz noch weiter zu steigern, wird es bevorzugt, lediglich relativ grob gerasterte Stützwert- Paare für Positionen und zugeordnete Korrekturfaktoren in der Tabelle abzuspeichern und Korrekturfaktoren für Positionswerte, die zwischen zwei Stützwerten liegen, einseitig, zweiseitig, linear, kubisch etc. zu interpolieren.
Alternativ kann es ferner in dem einen oder anderen Fall sinnvoll sein, einen empirischen Ansatz zu verwenden, dahingehend, daß Pegelmessungen durchgeführt werden. In einem solchen Fall würde eine virtuelle Quelle mit einem bestimmten Kalibrierungspegel an einer bestimmten virtuellen Position plaziert werden. Dann würde für ein reales Wellenfeldsynthesesystem ein Wellenfeldsynthesemodul die Lautsprechersignale für die einzelnen Lautsprecher berechnen, um schließlich am Hörer den tatsächlich aufgrund der virtuellen Quelle ankommenden Pegel zu messen. Ein Korrekturfaktor würde dann dahingehend bestimmt, daß er die Abweichung vom Sollpegel zum Istpegel zumindest reduziert oder vorzugsweise zu 0 bringt. Dieser Korrekturfaktor würde dann in der Nachschlagtabelle in Zuordnung zu der Position der virtuellen Quelle abgespeichert werden, um so nach und nach, also für viele Positionen der virtuellen Quelle, für ein bestimmtes Wellenfeldsynthesesystem in einem speziellen Vorführraum die gesamte Nachschlagtabelle zu erzeugen.
Zur Manipulation auf der Basis des Korrekturfaktors existieren mehrere Möglichkeiten. Bei einer Ausführungsform wird es bevorzugt, das Audiosignal der virtuellen Quelle, wie es beispielsweise in einem Audiotrack, der aus einem Tonstudio kommt, aufgezeichnet ist, mit dem Korrekturfaktor zu manipulieren, um dann erst das manipulierte Signal in ein Wellenfeldsynthesemodul einzuspeisen. Dies führt gewis- sermaßen automatisch dazu, daß somit alle Komponentensignale, die auf diese manipulierte virtuelle Quelle zurückgehen, ebenfalls entsprechend gewichtet sind, und zwar im Vergleich zu dem Fall, bei dem keine Korrektur gemäß der vorliegenden Erfindung vorgenommen worden ist.
Alternativ kann es für bestimmte Anwendungsfälle auch günstig sein, nicht auf das Ursprungs-Audiosignal der virtuellen Quelle einzugreifen, sondern in die durch das Wellenfeldsynthesemodul erzeugten Komponentensignale ein- zugreifen, um diese Komponentensignale alle vorzugsweise mit demselben Korrekturfaktor zu manipulieren. An dieser Stelle sei darauf hingewiesen, daß der Korrekturfaktor nicht unbedingt identisch für alle Komponentensignale sein muß. Dies wird jedoch in weiten Teilen bevorzugt, um nicht die relative Skalierung der Komponentensignale zueinander, die zur Rekonstruktion der tatsachlichen Wellensituat ion erforderlich ist, zu stark zu beeinträchtigen.
Ein Vorteil besteht darin, daß mit relativ einfachen Maßnahmen zumindest wahrend des Betriebs eine Pegelkorrektur dahingehend vorgenommen werden kann, daß der Zuhörer zumindest im Hinblick auf die von ihm wahrgenommene Lautstarke einer virtuellen Quelle nichts davon merkt, daß nicht die eigentlich erforderlichen unendlich vielen Lautsprecher vorhanden sind, sondern lediglich eine begrenzte Menge an Lautsprechern .
Ein weiterer Vorteil besteht darin, daß auch dann, wenn sich eine virtuelle Quelle in einem bezuglich des Zuschauers gleichbleibenden Abstand (z. B. von links nach rechts) bewegt, diese Quelle für den Zuschauer, der beispielsweise in der Mitte vor der Leinwand sitzt, immer gleich laut ist und nicht einmal lauter und einmal leiser ist, was ohne Korrektur der Fall sein würde.
Ein weiterer Vorteil besteht darin, daß sie die Option dahingehend liefert, preisgünstigere Wellenfeldsynthesesys- teme mit einer geringeren Anzahl von Lautsprechern anzubieten, die dennoch insbesondere bei sich bewegenden Quellen keine Pegelartefakte mit sich bringen, also für einen Zuhörer im Hinblick auf die Pegelproblematik genau so gut wirken wie aufwendigere Wellenfeldsynthesesysteme mit einer hohen Anzahl an Lautsprechern. Auch für Locher im Array können eventuell zu niedrige Pegel erfindungsgemaß korrigiert werden.
Bevor detailliert auf die vorstehend beschriebene bevorzug- te Art und Weise zur Pegelartefaktkorrektur eingegangen wird, sei zunächst anhand von Fig. 9 das erfindungsgemäße Konzept zum Erzeugen eines Tieftonkanals dargestellt, das entweder für sich stehend, also ohne Pegelkorrektur der Einzellautsprecher eingesetzt werden kann, oder das vorzugsweise mit dem später Bezug nehmend auf die Fig. 1 - 8 beschriebenen Konzept der Pegelartefaktkorrektur kombiniert werden kann, um die zur Pegelartefaktkorrektur der Einzel- lautsprecher verwendeten Korrekturwerte auch als Audioob- jektskalierungswerte zu verwenden, die bei der Tieftonkanalerzeugung eingesetzt werden müssen.
Fig. 9 zeigt eine Vorrichtung zum Erzeugen eines Tieftonka- nals für einen Tieftonlautsprecher, der an einer vorbestimmten Lautsprecherposition angeordnet ist. Die in Fig. 9 gezeigte Vorrichtung umfaßt zunächst eine Einrichtung 900 zum Bereitstellen einer Mehrzahl von Audioobjekten, wobei einem Audioobjekt ein Audioobjektsignal 902 sowie eine Audioobjektbeschreibung 904 zugeordnet sind. Die Audioobjektbeschreibung wird typischerweise eine Audioobjektposition und möglicherweise auch die Audioobjektart umfassen. Je nach Ausführungsform kann die Audioobjektbeschreibung auch direkt eine Angabe für die Audioobjektlautstärke umfassen. Ist dies nicht der Fall, so ist die Audioobjektlautstärke ohne weiteres aus dem Audioobjektsignal selbst zu berechnen, beispielsweise durch abtastwertweise Quadrierung und Aufsummation über einen bestimmten Zeitraum. Sollen bereits hier Übertragungsfunktion, Frequenzgang etc. der einzelnen betrachteten Lautsprecher oder auch des Tieftonlautsprechers berücksichtigt werden, so wird dies ebenfalls durch einen einfachen Tabellennachschlag bzw. einen Korrekturfaktor realisierbar sein, da in einem Wiedergabesystem das elektrische Verhalten des Lautsprechers bzw. die Signal-/Schallcharakteristik des Lautsprechers eine stationäre Größe ist.
Die Objektbeschreibung des Audiosignals wird einer Einrichtung 906 zum Berechnen eines Audioobjektskalierungswerts für jedes Audioobjekt zugeführt. Die einzelnen Audioobjekt- skalierungswerte 908 werden dann, wie es anhand von Fig. 9 gezeigt ist, einer Einrichtung 910 zum Skalieren der Objektsignale zugeführt. Die Einrichtung 906 zum Berechnen der Audioobjektskalierungswerte ist ausgebildet, um für jedes Audioobjekt abhängig von der Objektbeschreibung einen Audioobjektskalierungswert zu berechnen. Handelt es sich um eine Quelle, die ebene Wellen aussendet, so wird der Audio- Objektskalierungswert bzw. der Korrekturfaktor gleich 1 sein, da für solche Ebene-Wellen-Audioobjekte eine Beab- standung zwischen der Position dieses Objekts und der optimalen Referenzwiedergabeposition unerheblich ist, da die virtuelle Position in diesem Fall im Unendlichen ange- nommen wird.
Handelt es sich bei dem Audioobjekt dagegen um eine punkt- förmig abstrahlende virtuelle Quelle, die an einer virtuellen Position positioniert ist, so wird der Audioobjektska- lierungswert abhängig von der Objektlautstärke, die sich entweder in der Objektbeschreibung befindet oder vom Objektsignal abzuleiten ist, und dem Abstand zwischen der virtuellen Position des Audioobjekts und der Referenzwiedergabeposition berechnet.
Insbesondere wird es bevorzugt, den Audioobjektskalierungswert bzw. Korrekturwert derart zu berechnen, daß berücksichtigt wird, daß derselbe auf einem Soll- Amplitudenzustand in dem Vorführbereich basiert, wobei der Soll-Amplitudenzustand von einer Position der virtuellen Quelle oder einer Art der virtuellen Quelle abhängt, wobei der Korrekturwert ferner auf einem Ist-Amplitudenzustand in dem Vorführbereich basiert, der auf den Komponentensignalen für die Einzellautsprecher aufgrund der betrachteten virtu- eilen Quelle basiert. Der Korrekturwert wird also so berechnet, daß durch eine Manipulation des der virtuellen Quelle zugeordneten Audiosignals unter Verwendung des Korrekturwerts eine Abweichung zwischen dem Soll- Amplitudenzustand und dem Ist-Amplitudenzustand verkleinert wird. Nach Skalierung der Objektsignale, die durch die Einrichtung 910 durchgeführt wird, um die skalierten Objektsignale 912 zu erhalten, werden dieselben einer Ein- richtung 914 zum Summieren zugeführt, um ein Summensignal 916 zu erzeugen.
Wie es ausgeführt worden ist, wird bevorzugt, vor der Summation durch die Einrichtung 914 auch eine eventuell durch unterschiedliche virtuelle Positionen bedingte Verzögerung bzw. Delay zu berücksichtigen, so daß die einzelnen Audioobjektsignale, die als Sequenzen von Abtastwerten vorliegen, bezüglich einer Zeitreferenz verschoben werden, um Laufzeitunterschiede des Schallsignals von der virtuellen Position zur Referenzwiedergabeposition ausreichend zu berücksichtigen. Nach Skalierung und Berücksichtigung der Verzögerung werden dann die skalierten und entsprechend verzögerten Objektsignale durch die Einrichtung 914 abtast- wertweise aufsummiert, um ein Summensignal mit einer Sequenz von Summensignalabtastwerten zu erhalten, das in Fig. 9 mit 916 bezeichnet ist. Dieses Summensignal 916 wird einer Einrichtung 918 zum Bereitstellen des Tieftonkanals für den einen bzw. die mehreren Subwoofer zugeführt, welche ausgangsseitig das Subwoofersignal bzw. den Tieftonkanal 920 liefert.
Wie es ausgeführt worden ist, ist das durch einen Tieftonlautsprecher ausgesendete Schallsignal kein Schallsignal mit voller Bandbreite, sondern mit nach oben begrenzter Bandbreite. In einer Ausführungsform wird bevorzugt, daß die Grenzfrequenz des von einem Tieftonlautsprecher ausgesendeten Schallsignals kleiner als 250 Hz ist und vorzugsweise sogar bei lediglich 125 Hz liegt. Die Bandbegrenzung dieses Schallsignals kann an verschiedenen Stellen erfolgen. Eine einfache Maßnahme besteht darin, dem Tieftonlautsprecher ein Anregungssignal mit voller Bandbreite zuzuführen, das dann durch den Tieftonlautsprecher selbst bandbegrenzt wird, da derselbe lediglich tiefe Frequenzen in Schallsignale umsetzt, jedoch hohe Frequenzen unterdrückt.
Alternativ kann die Bandbegrenzung jedoch auch in der Einrichtung 918 zum Bereitstellen des Tieftonkanals erfol- gen, indem das Signal dort vor einer Digital- /Analogwandlung tiefpaßgefiltert wird, wobei diese Tiefpaß - filterung, da sie auf digitaler Seite durchgeführt werden kann, bevorzugt wird, damit klare Verhältnisse unabhängig von der tatsächlichen Implementierung des Subwoofers existieren. Alternativ kann jedoch die Tiefpaßfilterung bereits vor der Einrichtung 910 zum Skalieren der Objektsignale erfolgen, so daß die Operationen, die durch die Einrichtungen 910, 914, 918 ausgeführt werden, nunmehr mit Tiefpaß- Signalen und nicht mit Signalen der gesamten Bandbreite durchgeführt werden.
Erfindungsgemäß wird es jedoch bevorzugt, die Tiefpaßfilte— rung in der Einrichtung 918 durchzuführen, so daß die Berechnung der Audioobjektskalierungswerte, die Skalierung der Objektsignale und die Summation mit Signalen voller Bandbreite durchgeführt wird, um eine möglichst gute Übereinstimmung der Lautsprecher zwischen Tiefton einerseits und Mittelton und Hochton andererseits sicherzustellen. In anderen Worten ausgedrückt wird es bevorzugt, möglichst viele Operationen parallel zur Bestimmung der eigentlichen Lautsprechersignale für die Lautsprecher im Wellenfeldsyn— thesearray durchzuführen und erst sehr spät eine „Abspaltung" des Tieftonkanals durchzuführen. '' Fig. 10 zeigt eine bevorzugte Ausführungsform der Einrichtung 918 zum Bereitstellen von nunmehr mehreren Tieftonka— nälen für mehrere Subwoofer. Bevor detailliert auf Fig. 10 eingegangen wird, sei zunächst anhand von Fig. 11 die geometrische Situation dargestellt. In Fig. 11 ist schematisch ein Wellenfeldsynthesesystem mit einer Vielzahl von Einzellautsprechern 808 dargestellt. Die Einzellautsprecher 808 bilden ein Array 800 von Einzellautsprechern, die den Vorführbereich umschließen. Vorzugsweise innerhalb des Vorführbereichs befindet sich die Referenzwiedergabeposition bzw. der Referenzpunkt 1100. In Fig. 11 ist ferner schematisch ein Audioobjekt 1102, das als „virtuelles Klangobjekt" bezeichnet ist. Das virtuelle Klangobjekt 1102 umfaßt eine Objektbeschreibung, die eine virtuelle Position 1104 darstellt. Anhand der Koordinaten des Referenzpunkts 1100 und der Koordinaten der virtuellen Position 1104, die gegebenenfalls entsprechend umrechenbar sind, ist der Abstand D des virtuellen Klangobjekts 1102 von der Referenzwiedergabeposition 100 bestimmbar. Anhand dieses Abstands D kann bereits eine einfache Audioobjekt- Skalierungswertberechnung durchgeführt werden, nämlich anhand der Gesetzmäßigkeit, die in Fig. 7a später noch detailliert erklärt werden wird. Fig. 11 zeigt ferner einen ersten Tieftonlautsprecher 1106 an einer ersten vorbestimmten Lautsprecherposition 1108 sowie einen zweiten Tiefton- lautsprecher 1110 an einer zweiten Tieftonlautsprecherposi- tion 1112. Wie es in Fig. 11 ausgeführt ist, ist der zweite Subwoofer 1110 bzw. jeder weitere in Fig. 11 nicht dargestellte zusätzliche Subwoofer optional. Der erste Subwoofer 1106 hat zum Referenzpunkt 1100 einen Abstand dl, während der zweite Subwoofer 1110 zum Referenzpunkt einen Abstand d2 hat. Analog hierzu hat ein Subwoofer n (in Fig. 11 nicht gezeigt) zum Referenzpunkt 1100 einen Abstand dn.
Wieder Bezug nehmend auf Fig. 10 ist die Einrichtung 918 zum Bereitstellen des Tieftonkanals ausgebildet, um neben dem Summensignal 916, das in Fig. 10 mit s bezeichnet ist, auch den Abstand dl des Tieftonlautsprechers 1, der mit 930 bezeichnet ist, auf den Abstand d2 des Tieftonlautsprechers 2, der mit 932 bezeichnet ist, sowie den Abstand dn des Tieftonlautsprechers n, der mit 934 bezeichnet ist, zu empfangen. Ausgangsseitig liefert die Einrichtung 918 einen ersten Tieftonkanal 940, einen zweiten Tieftonkanal 942 sowie einen n-ten Tieftonkanal 944. Aus Fig. 10 ist ersichtlich, daß sämtliche Tieftonkanäle 940, 942, 944 ge- wichtete Versionen des Summensignals 916 sind, wobei die jeweiligen Gewichtungsfaktoren mit ai, a2, ..., an bezeichnet sind. Die einzelnen Gewichtungsfaktoren ai, a2, an hängen einerseits von den Abständen 930 - 934 sowie ande- rerseits von der allgemeinen Randbedingung ab, daß die Lautstärke der Tieftonkanäle am Referenzpunkt 100 gleich der Referenzlautstärke, also dem Soll-Amplitudenzustand für den Tieftonkanal an der Referenzwiedergabeposition 1100 (Fig. 11) entspricht. Nachdem sich sämtliche Subwoofer vom Referenzpunkt 1100 entfernt befinden, wird die Summe der Lautsprecherskalierungswerte ai, a2, an größer als 1 sein, um die Dämpfung der Tieftonkanäle auf dem Weg vom entsprechenden Subwoofer zum Referenzpunkt entsprechend zu berück- sichtigen. Falls nur ein einziger Tieftonlautsprecher (z. B. 1106) vorgesehen ist, wird der Skalierungsfaktor ai ebenfalls größer als 1 sein, während keine weiteren Skalierungsfaktoren zu berechnen sind, da nur ein einziger Tieftonlautsprecher vorhanden ist.
Nachfolgend wird Bezug nehmend auf die Fig. 1 - 8 eine Pegelartefaktkorrekturvorrichtung für das Lautsprecherarray 800 in Fig. 8 bzw. Fig. 11 dargestellt, die mit der erfindungsgemäßen Tieftonkanalberechnung, wie sie anhand der Fig. 9 - 11 dargestellt worden ist, vorzugsweise kombiniert werden kann.
Bevor detailliert auf die vorliegende Erfindung eingegangen wird, wird nachfolgend anhand von Fig. 8 der prinzipielle Aufbau eines Wellenfeldsynthesesystems dargestellt. Das Wellenfeldsynthesesystem hat ein Lautsprecherarray 800, das bezüglich eines Vorführbereichs 802 plaziert ist. Im einzelnen umfaßt das in Fig. 8 gezeigte Lautsprecherarray, das ein 360°-Array ist, vier Arrayseiten 800a, 800b, 800c und 800d. Ist der Vorführbereich 802 z. B. ein Kinosaal, so wird bezüglich der Konventionen vorne/hinten oder rechts/links davon ausgegangen, daß sich die Kinoleinwand auf derselben Seite des Vorführbereichs 802 befindet, an der auch das Teil-Array 800c angeordnet ist. In diesem Fall würde der Betrachter, der an dem hier so genannten Optimal- Punkt P in dem Vorführbereich 802 sitzt, nach vorne, also auf die Leinwand, sehen. Hinter dem Zuschauer würde sich dann das Teil-Array 800a befinden, während sich links vom Zuschauer das Teil-Array 800d befinden würde, und während sich rechts vom Zuschauer das Teil-Array 800b befinden würde. Jedes Lautsprecherarray besteht aus einer Anzahl von verschiedenen Einzellautsprechern 808, die jeweils mit eigenen Lautsprechersignalen angesteuert werden, die von einem Wellenfeldsynthesemodul 810 über einen in Fig. 8 lediglich schematisch gezeigten Datenbus 812 bereitgestellt werden. Das Wellenfeldsynthesemodul ist ausgebildet, um unter Verwendung der Informationen über z. B. Art und Lage der Lautsprecher bezüglich des Vorführbereichs 802, also von Lautsprecher-Informationen (LS-Infos) , und gegebenenfalls mit sonstigen Inputs Lautsprechersignale für die einzelnen Lautsprecher 808 zu berechnen, die jeweils von den Audiotracks für virtuelle Quellen, denen ferner Positi- onsinformationen zugeordnet sind, gemäß den bekannten Wellenfeldsynthesealgorithmen abgeleitet werden. Das Wellenfeldsynthesemodul kann ferner noch weitere Eingaben erhalten, wie beispielsweise Informationen über die Raumakustik des Vorführbereichs etc.
Die nachfolgenden Ausführungen zur vorliegenden Erfindung können prinzipiell für jeden Punkt P in dem Vorführbereich durchgeführt werden. Der Optimal-Punkt kann somit an jeder beliebigen Stelle im Vorführbereich 802 liegen. Es kann auch mehrere Optimal-Punkte, z. B. auf einer Optimal-Linie, geben. Um jedoch möglichst gute Verhältnisse für möglichst viele Punkte im Vorführbereich 802 zu erhalten, wird es bevorzugt, den Optimal-Punkt bzw. die Optimal-Linie in der Mitte bzw. am Schwerpunkt des Wellenfeldsynthesesystems, das durch die Lautsprecher-Teilarrays 800a, 800b, 800c, 800d definiert ist, anzunehmen.
Eine detailliertere Darstellung des Wellenfeldsynthesemo- duls 800 wird nachfolgend anhand der Fig. 2 und 3 Bezug nehmend auf das Wellenfeldsynthesemodul 200 in Fig. 2 bzw. auf die in Fig. 3 detailliert dargestellte Anordnung gegeben. Fig. 2 zeigt eine Wellenfeldsyntheseumgebung, in der die vorliegende Erfindung implementiert werden kann. Zentrum einer Wellenfeldsyntheseumgebung ist ein Wellenfeldsynthesemodul 200, das diverse Eingänge 202, 204, 206 und 208 sowie diverse Ausgänge 210, 212, 214, 216 umfaßt. Über Eingänge 202 bis 204 werden dem Wellenfeldsynthesemodul verschieden Audiosignale für virtuelle Quellen zugeführt. So empfängt der Eingang 202 z. B. ein Audiosignal der virtuellen Quelle 1 sowie zugeordnete Positionsinformatio- nen der virtuellen Quelle. In einem Kinosetting beispielsweise wäre das Audiosignal 1 z. B. die Sprache eines Schauspielers, der sich von einer linken Seite der Leinwand zu einer rechten Seite der Leinwand und möglicherweise zusätzlich noch vom Zuschauer weg bzw. zum Zuschauer hin bewegt. Das Audiosignal 1 wäre dann die tatsächliche Sprache dieses Schauspielers, während die Positionsinformationen als Funktion der Zeit die zu einem bestimmten Zeitpunkt aktuelle Position des ersten Schauspielers im Aufnahmesetting darstellt. Dagegen wäre das Audiosignal n die Sprache beispielsweise eines weiteren Schauspielers, der sich gleich oder anders als der erste Schauspieler bewegt. Die aktuelle Position des anderen Schauspielers, dem das Audiosignal n zugeordnet ist, wird durch mit dem Audiosignal n synchronisierte Positionsinformationen dem Wellenfeldsyn- thesemodul 200 mitgeteilt. In der Praxis existieren verschiedene virtuelle Quellen je nach Aufnahmesetting, wobei das Audiosignal jeder virtuellen Quelle als eigener Audiotrack dem Wellenfeldsynthesemodul 200 zugeführt wird.
Wie es vorstehend dargelegt worden ist, speist ein Wellenfeldsynthesemodul eine Vielzahl von Lautsprechern LSI, LS2, LS3, LSm durch Ausgabe von Lautsprechersignalen über die Ausgänge 210 bis 216 zu den einzelnen Lautsprechern. Dem Wellenfeldsynthesemodul 200 werden über den Eingang 206 die Positionen der einzelnen Lautsprecher in einem Wiedergabe- setting, wie beispielsweise einem Kinosaal mitgeteilt. Im Kinosaal befinden sich um den Kinozuschauer herum gruppiert viele einzelne Lautsprecher, die in Arrays vorzugsweise derart angeordnet sind, daß sich sowohl vor dem Zuschauer, also beispielsweise hinter der Leinwand, als auch hinter dem Zuschauer sowie rechts und links des Zuschauers Lautsprecher befinden. Ferner können dem Wellenfeldsynthesemo- dul 200 noch sonstige Eingaben mitgeteilt werden, wie beispielsweise Informationen über die Raumakustik etc., um m einem Kinosaal die tatsachliche wahrend des Aufnahmeset- tings herrschende Raumakustik simulieren zu können.
Allgemein gesagt wird das Lautsprechersignal, das beispielsweise dem Lautsprecher LSI über den Ausgang 210 zugeführt wird, eine Überlagerung von Komponentensignalen der virtuellen Quellen sein, dahingehend, daß das Lautsprechersignal für den Lautsprecher LSI eine erste Komponente, die auf die virtuelle Quelle 1 zurückgeht, eine zweite Komponente, die auf die virtuelle Quelle 2 zurückgeht, sowie eine n-te Komponente, die auf die virtuelle Quelle n zurückgeht, umfassen. Die einzelnen Komponentensignale werden linear superponiert , also nach ihrer Berechnung addiert, um die linerare Superposition am Ohr des Zuhörers nachzubilden, der in einem realen Setting eine lineare Überlagerung der von ihm wahrnehmbaren Schallquellen hören wird.
Nachfolgend wird Bezug nehmend auf Fig. 3 eine detailliertere Ausgestaltung des Wellenfeldsynthesemoduls 200 dargelegt. Das Wellenfeldsynthesemodul 200 hat einen stark parallelen Aufbau dahingehend, daß ausgehend von dem Audiosignal für jede virtuelle Quelle und ausgehend von den Positionsinformationen für die entsprechende virtuelle Quelle zunächst Verzogerungsinformationen Vx sowie Skalierungsfaktoren SFj. berechnet werden, die von den Positionsinformationen und der Position des gerade betrachteten Lautsprechers, z. B. dem Lautsprecher mit der Ordnungsnum- mer j, also LSj , abhangen. Die Berechnung einer Verzogerungsinformation Vx sowie eines Skalierungsfaktors SFj. aufgrund der Positionsinformationen einer virtuellen Quelle und der Lage des betrachteten Lautsprechers j geschieht durch bekannte Algorithmen, die in Einrichtungen 300, 302, 304, 306 implementiert sind. Auf der Basis der Verzögerungsinformationen Vi(t) und SFχ(t) sowie auf der Basis des der einzelnen virtuellen Quelle zugeordneten Audiosignals ASι(t) wird für einen aktuellen Zeitpunkt tÄ ein diskreter Wert AWι(tA) für das Komponentensignal Ki;] in einem letztendlich erhaltenen Lautsprechersignal berechnet. Dies erfolgt durch Einrichtungen, 310, 312, 314, 316, wie sie in Fig. 3 schematisch dargestellt sind. Fig. 3 zeigt ferner gewissermaßen eine „Blitzlichtaufnahme" zum Zeitpunkt tA für die einzelnen Komponentensignale. Die einzelnen Komponentensignale werden dann durch einen Summierer 320 summiert, um den diskreten Wert für den aktuellen Zeitpunkt ta des Lautsprechersignals für den Lautsprecher j zu ermit- teln, der dann für den Ausgang (beispielsweise der Ausgang 214, wenn der Lautsprecher j der Lautsprecher LS3 ist), dem Lautsprecher zugeführt werden kann.
Wie es aus Fig. 3 ersichtlich ist, wird zunächst für jede virtuelle Quelle einzeln ein aufgrund einer Verzögerung und einer Skalierung mit einem Skalierungsfaktor zu einem aktuellen Zeitpunkt gültiger Wert berechnet, wonach sämtliche Komponentensignale für einen Lautsprecher aufgrund der verschiedenen virtuellen Quellen summiert werden. Wäre beispielsweise nur eine virtuelle Quelle vorhanden, so würde der Summierer entfallen, und das am Ausgang des Summierers in Fig. 3 anliegende Signal würde z. B. dem Signal entsprechen, das von der Einrichtung 310 ausgegeben wird, wenn die virtuelle Quelle 1 die einzige virtuelle Quelle ist.
An dieser Stelle sei darauf hingewiesen, daß an dem Ausgang 322 von Fig. 3 der Wert eines Lautsprechersignals erhalten wird, das eine Überlagerung der Komponentensignale für diesen Lautsprecher aufgrund der verschiedenen virtuellen Quellen 1, 2, 3, ..., n ist. Eine Anordnung, wie sie in Fig. 3 gezeigt ist, wäre prinzipiell für jeden Lautsprecher 808 im Wellenfeldsynthesemodul 810 vorgesehen, es sei denn, daß, was aus praktischen Gründen bevorzugt wird, immer z. B. 2, 4 oder 8 zusammenliegende Lautsprecher mit demselben Lautsprechersignal angesteuert werden.
Fig. 1 zeigt ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem, das Bezug nehmend auf Fig. 8 dargelegt worden ist. Das Wellenfeldsynthesesystem umfaßt das Wellenfeldsynthesemodul 810 sowie das Lautsprecherarray 800 zur Schall- Versorgung des Vorführbereichs 802, wobei das Wellenfeldsynthesemodul 810 ausgebildet ist, um ein einer virtuellen Schallquelle zugeordnetes Audiosignal sowie der virtuellen Schallquelle zugeordnete Quellenpositionsinformationen zu empfangen und unter Berücksichtigung von Lautsprecher- Positionsinformationen Komponentensignale für die Lautsprecher aufgrund der virtuellen Quelle zu berechnen. Die erfindungsgemäße Vorrichtung umfaßt zunächst eine Einrichtung 100 zum Ermitteln eines Korrekturwerts, der auf einem Soll-Amplitudenzustand in dem Vorführbereich basiert, wobei der Soll-Amplitudenzustand von einer Position der virtuellen Quelle oder einer Art der virtuellen Quelle abhängt, und wobei der Korrekturwert ferner auf einem Ist- Amplitudenzustand in dem Vorführbereich basiert, der von den Komponentensignalen für die Lautsprecher aufgrund der virtuellen Quelle abhängt.
Die Einrichtung 100 hat einen Eingang 102 zum Erhalten einer Position der virtuellen Quelle, wenn sie z. B. eine Punktquellencharakteristik hat, oder zum Erhalten von Informationen über eine Art der Quelle, wenn die Quelle z. B. eine Quelle zur Erzeugung von ebenen Wellen ist. In diesem Fall ist der Abstand des Zuhörers von der Quelle zur Bestimmung des Ist-Zustands nicht nötig, da sich die Quelle aufgrund der erzeugten ebenen Wellen im Modell gedacht ohnehin unendlich weit entfernt von dem Hörer befindet und einen positionsunabhängigen Pegel hat. Die Einrichtung 100 ist ausgebildet, um ausgangsseitig einen Korrekturwert 104 auszugeben, der einer Einrichtung 106 zum Manipulieren eines der virtuellen Quelle zugeordneten Audiosignals (das über einen Eingang 108 erhalten wird) oder zum Manipulieren von Komponentensignalen für die Lautsprecher aufgrund einer virtuellen Quelle (die über einen Eingang 110 erhalten werden), zu manipulieren. Falls die Alternative des Manipu- lierens des Audiosignals, das über den Eingang 108 bereitgestellt wird, durchgeführt wird, ergibt sich an einem Ausgang 112 ein manipuliertes Audiosignal, das dann erfindungsgemäß statt des ursprünglichen Audiosignals, das am Eingang 108 bereitgestellt wird, in das Wellenfeldsynthesemodul 200 eingespeist wird, um die einzelnen Lautsprechersignale 210, 212, ..., 216 zu erzeugen.
Wurde dagegen die andere Alternative zum Manipulieren verwendet, nämlich die gewissermaßen eingebettete Manipulation der Komponentensignale, die über den Eingang 110 erhalten worden sind, so werden ausgangsseitig manipulierte Komponentensignale erhalten, die noch Lautsprecher-weise aufsummiert werden müssen (Einrichtung 116) , und zwar mit gegebenenfalls manipulierten Komponentensignalen von anderen virtuellen Quellen, die über weitere Eingänge 118 bereitgestellt werden. Ausgangsseitig liefert die Einrichtung 116 wieder die Lautsprechersignale 210, 212, ..., 216. Es sei darauf hingewiesen, daß die in Fig. 1 gezeigten Alternativen der vorgeschalteten Manipulation (Ausgang 112) oder der eingebetteten Manipulation (Ausgang 114) alternativ zueinander verwendet werden können. Je nach Ausführungsform kann es jedoch auch Fälle geben, in denen der Gewichtungsfaktor bzw. Korrekturwert, der über den Eingang 104 in die Einrichtung 106 bereitgestellt wird, gewissermaßen gesplittet wird, so daß teilweise eine vorgeschaltete Manipulation und teilweise eine eingebettete Manipulation durchgeführt wird.
Im Hinblick auf Fig. 3 würde die vorgeschaltete Manipulation somit darin bestehen, daß das Audiosignal der virtuellen Quelle, das in eine Einrichtung 310, 312, 314 bzw. 316 eingespeist wird, vor seiner Einspeisung manipuliert wird. Die eingebettete Manipulation würde dagegen darin bestehen, daß die von den Einrichtungen 310, 312, 314 bzw. 316 ausgegebenen Komponentensignale vor ihrer Summation, um tatsächliche Lautsprechersignal zu erhalten, manipuliert werden.
Diese beiden Möglichkeiten, die entweder alternativ oder kumulativ verwendbar sind, sind in den Fig. 6a und Fig. 6b dargestellt. So zeigt Fig. 6a die eingebettete Manipulation durch die Manipulationseinrichtung 106, die in Fig. 6a als Multiplizierer gezeichnet ist. Eine Wellenfeldsyntheseeinrichtung, die beispielsweise aus den Blöcken 300, 310 bzw. 302, 312, bzw. 304, 314 und 306 bzw. 316 von Fig. 3 besteht, liefert die Komponentensignale n, Kχ2, K13 für den Lautsprecher LSI bzw. die Komponentensignale Knl, Kn2 und Kn3 für den Lautsprecher LSn.
In der in Fig. 6a gewählten Notation zeigt der erste Index von Kij den Lautsprecher an, und zeigt der zweite Index die virtuelle Quelle an, von der das Komponentensignal stammt. Die virtuelle Quelle 1 beispielsweise äußert sich in dem Komponentensignal Kn, ..., Knl . Um den Pegel der virtuellen Quelle 1 abhängig von den Positionsinformationen der virtuellen Quelle 1 (ohne Beeinflussung der Pegel der anderen virtuellen Quellen) selektiv zu beeinflussen, wird bei der in Fig. 6a gezeigten eingebetteten Manipulation eine Multiplikation der Komponentensignale, die zu der Quelle 1 gehören, also der Komponentensignale, deren Index j auf die virtuelle Quelle 1 hinweist, mit dem Korrekturfaktor Fx stattfinden. Um eine entsprechende Amplituden- bzw. Pegel- korrektur für die virtuelle Quelle 2 durchzuführen, werden sämtliche Komponentensignale, die auf die virtuelle Quelle 2 zurückgehen, mit einem hierfür bestimmten Korrekturfaktor F2 multipliziert. Schließlich werden auch die Komponentensignale, die auf die virtuelle Quelle 3 zurückgehen, durch einen entsprechenden Korrekturfaktor F3 gewichtet.
Es sei darauf hingewiesen, daß die Korrekturfaktoren Fi, F2 und F3, wenn alle sonstigen geometrischen Parameter gleich sind, lediglich von der Position der entsprechenden virtuellen Quelle abhängen. Würden somit alle drei virtuellen Quellen z. B. Punktquellen (also gleicher Art) sein und an derselben Position sein, so wäre die Korrekturfaktoren für die Quellen identisch. Diese Gesetzmäßigkeit wird noch Bezug nehmend auf Fig. 4 näher erläutert, da es zur Rechenzeitvereinfachung möglich ist, eine Nachschlagtabelle mit Positionsinformationen und jeweils zugeordneten Korrekturfaktoren zu verwenden, die zwar irgendwann erstellt werden muß, auf die jedoch im Betrieb schnell zugegriffen werden kann, ohne daß im Betrieb ständig eine Sollwert/Istwert- Berechnungs- und Vergleichs-Operation durchgeführt werden muß, was jedoch prinzipiell ebenfalls möglich ist.
Fig. 6b zeigt die erfindungsgemäße Alternative zur Quellenmanipulation. Die Manipulationseinrichtung ist hier der Wellenfeldsyntheseeinrichtung vorgeschaltet und ist wirksam, um die Audiosignale der Quellen mit den entsprechenden Korrekturfaktoren zu korrigieren, um manipulierte Audiosig- nale für die virtuellen Quellen zu erhalten, die dann der Wellenfeldsyntheseeinrichtung zugeführt werden, um die Komponentensignale zu erhalten, die dann von den jeweiligen Komponentensummationseinrichtungen aufsummiert werden, um die Lautsprechersignale LS für die entsprechenden Lautspre- eher, wie beispielsweise den Lautsprecher LSi, zu erhalten.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist die Einrichtung 100 zum Ermitteln des Korrekturwerts als Nachschlagtabelle 400 ausgebildet, die Positi- on-Korrekturfaktor-Wertepaare speichert. Die Einrichtung 100 ist vorzugsweise ferner mit einer Interpolationseinrichtung 402 versehen, um einerseits die Tabellengröße der Nachschlagtabelle 400 in einem begrenzten Rahmen zu halten, und um andererseits auch für aktuelle Positionen einer virtuellen Quelle, die über einen Eingang 404 in die Interpolationseinrichtung eingespeist werden, zumindest unter Verwendung einer oder mehrerer benachbarter in der Nachschlagtabelle gespeicherten Position-Korrekturfaktor- Wertepaare, die der Interpolationseinrichtung 402 über eine Eingang 406 zugeführt werden, einen interpolierten aktuellen Korrekturfaktor an einem Ausgang 408 zu erzeugen. Bei einer einfacheren Version kann die Interpolationseinrich- tung 402 jedoch auch weggelassen werden, so daß die Einrichtung 100 zum Ermitteln von Fig. 1 einen direkten Zugriff unter Verwendung von an einem Eingang 410 zugeführten Positionsinformationen auf die Nachschlagtabelle durchführt und an einem Ausgang 412 einen entsprechenden Korrek- turfaktor liefert. Entsprechen die aktuellen Positionsinformationen, die dem Audiotrack der virtuellen Quelle zugeordnet sind, nicht genau einer Positionsinformation, die in der Nachschlagtabelle zu finden ist, so kann der Nachschlagtabelle noch eine einfache Abrundungs- /Aufrundungs-Funktion zugeordnet sein, um den nächstlie- genden in der Tabelle gespeicherten Stützwert statt des aktuellen Stützwerts zu nehmen.
An dieser Stelle sei darauf hingewiesen, dass für verschie- dene Quellenarten verschiedene Tabellen angelegt werden können, oder dass einer Position nicht nur ein Korrekturfaktor zugeordnet ist, sondern mehrere Korrekturfaktoren, wobei jeder Korrekturfaktor mit einer Quellenart verknüpft ist.
Alternativ kann statt der Nachschlagtabelle oder zur „Auffüllung" der Nachschlagtabelle in Fig. 4 die Einrichtung zum Ermitteln ausgebildet sein, um tatsächlich einen Soll- wert-Istwert-Vergleich durchzuführen. In diesem Fall umfaßt die Einrichtung 100 von Fig. 1 eine Soll-Amplituden- Zustandsermittlungseinrichtung 500 sowie eine Ist- Amplituden-Zustandsermittlungseinrichtung 502, um einen Soll-Amplitudenzustand 504 sowie einen Ist- Amplitudenzustand 506 zu liefern, die einer Vergleichsein- riehtung 508 zugeführt werden, die beispielsweise einen Quotienten aus dem Soll-Amplitudenzustand 504 und dem Ist- Amplitudenzustand 506 berechnet, um einen Korrekturfaktor 510 zu erzeugen, der der Einrichtung 106 zum Manipulieren, die in Fig. 1 gezeigt ist, zur weiteren Verwendung zugeführt wird. Alternativ kann der Korrekturwert auch in einer Nachschlagtabelle abgespeichert werden.
Die Soll-Amplituden-Zustandsberechnung ist ausgebildet, um einen Soll-Pegel am Optimal-Punkt für eine an einer bestimmten Position bzw. in einer bestimmten Art ausgestaltete virtuelle Quelle zu ermitteln. Für die Soll- Amplitudenzustandsberechnung benötigt die Soll- Amplitudenzustandsermittlungseinrichtung 500 selbstverständliche keine Komponentensignale, da der Soll- Amplitudenzustand von den Komponentensignalen unabhängig ist. Komponentensignale werden jedoch, wie es aus Fig. 5 ersichtlich ist, der Ist-Amplitudenermittlungseinrichtung 502 zugeführt, die ferner je nach Ausführungsform auch noch Informationen über die Lautsprecherpositionen sowie Informationen über Lautsprecher-Übertragungsfunktionen und/oder Informationen über Richtcharakteristika der Lautsprecher erhalten kann, um eine Ist-Situation so gut als möglich zu ermitteln. Alternativ kann die Ist- Amplitudenzustandsermittlungseinrichtung 502 auch als tatsächliches Meßsystem ausgebildet sein, um eine Ist- Pegelsituation an dem Optimal-Punkt für bestimmte virtuelle Quellen an bestimmten Positionen zu ermitteln.
Nachfolgend wird Bezug nehmend auf Fig. 7a und Fig. 7b auf den Ist-Amplitudenzustand bzw. den Soll-Amplitudenzustand Bezug genommen. Fig. 7a zeigt ein Diagramm zum Ermitteln eines Soll-Amplitudenzustands an einem vorbestimmten Punkt, der in Fig. 7a mit „Optimal-Punkt" bezeichnet ist, und der im Vorführbereich 802 von Fig. 8 liegt. In Fig. 7a ist lediglich beispielhaft eine virtuelle Quelle 700 als Punktquelle eingezeichnet, die ein Schallfeld mit konzentrischen Wellenfronten erzeugt. Ferner ist aufgrund des Audiosignals für die virtuelle Quelle 700 der Pegel Lv der virtuellen Quelle 700 bekannt. Der Soll-Amplitudenzustand bzw. dann, wenn der Amplitudenzustand ein Pegelzustand ist, der Soll- Pegel an dem Punkt P im Vorführbereich wird ohne weiteres dadurch erhalten, daß der Pegel LP am Punkt P gleich dem Quotienten aus Lv und einem Abstand r ist, den der Punkt P zu der virtuellen Quelle 700 hat. Der Soll- Amplitudenzustand kann somit ohne weiteres durch Berechnung des Pegels Lv der virtuellen Quelle und durch Berechnung des Abstands r vom Optimal-Punkt zur virtuellen Quelle ermittelt werden. Zur Berechnung des Abstands r muß typischerweise eine Koordinatentransformation der virtuellen Koordinaten in die Koordinaten des Vorführraums oder eine Koordinatentransformation der Vorführraumkoordinaten des Punkts P in die virtuellen Koordinaten durchgeführt werden, was für Fachleute auf dem Gebiet der Wellenfeldsynthese bekannt ist.
Ist die virtuellen Quelle dagegen eine unendlich weit entfernte virtuelle Quelle, die am Punkt P ebene Wellen erzeugt, so wird zur Bestimmung des Soll-Amplitudenzustands der Abstand zwischen dem Punkt P und der Quelle nicht benötigt, da dieser ohnehin gegen unendlich geht. In diesem Fall wird lediglich eine Informationen über die Art der Quelle benötigt. Der Soll-Pegel am Punkt P ist dann gleich dem Pegel, der dem ebenen Wellenfeld, das durch die unendlich weit entfernte virtuelle Quelle erzeugt wird, zugeordnet ist.
Fig. 7 zeigt ein Diagramm zur Erläuterung des Ist- Amplitudenzustands. Insbesondere sind in Fig. 7b verschiedene Lautsprecher 808 gezeichnet, die alle mit einem eigenen Lautsprechersignal gespeist werden, das z. B. von dem Wellenfeldsynthesemodul 810 von Fig. 8 erzeugt worden ist. Ferner wird jeder Lautsprecher als Punktquelle modelliert, die ein konzentrisches Wellenfeld ausgibt. Die Gesetzmäßigkeit des konzentrischen Wellenfelds besteht wieder darin, daß der Pegel gemäß 1/r abfällt. Damit kann zur Berechnung des Ist-Amplitudenzustands (ohne Messung) das von dem Lautsprecher 808 unmittelbar an der Lautsprechermembran erzeugte Signal bzw. der Pegel dieses Signals auf der Basis der Lautsprechercharakteristika und des Komponentensignals im Lautsprechersignal LSn, das auf die betrachtete virtuelle Quelle zurückgeht, berechnet werden. Ferner kann aufgrund der Koordinaten des Punkts P und der Ortsinformationen zur Lage des Lautsprechers LSn der Abstand zwischen P und der Lautsprechermembran des Lautsprechers LSn ausgerechnet werden, so daß ein Pegel für den Punkt P aufgrund eines Komponentensignals erhalten werden kann, das auf die betrachtete virtuelle Quelle zurückgeht und von dem Lautsprecher LSn ausgesendet worden ist.
Eine entsprechende Prozedur kann für die anderen Lautsprecher des Lautsprecherarrays ebenfalls durchgeführt werden, so daß sich für den Punkt P eine Anzahl von „Teilpegelwerten" ergibt, die einen Signalbeitrag der betrachteten virtuellen Quelle darstellen, der von den einzelnen Lautsprechern zum Hörer am Punkt P gelangt ist. Durch Zusammenfassung dieser Teilpegelwerte wird dann der gesamte Ist- Amplitudenzustand am Punkt P erhalten, der dann, wie es ausgeführt worden ist, mit dem Soll-Amplitudenzustand verglichen werden kann, um einen Korrekturwert, der vorzugsweise multiplikativ ist, der jedoch prinzipiell additiv oder subtraktiv sein könnte, zu erhalten.
Erfindungsgemäß wird somit auf der Basis bestimmter Quel- lenformen der gewünschte Pegel für einen Punkt berechnet, also der Soll-Amplitudenzustand. Es wird bevorzugt, daß der Optimal-Punkt bzw. der Punkt im Vorführbereich, der betrachtet wird, sinnvollerweise in der Mitte des Wellenfeld- synthesesystems liegt. An dieser Stelle sei darauf hinge- wiesen, daß auch dann bereits eine Verbesserung erreicht wird, wenn der Punkt, der zur Berechnung des Soll- Amplitudenzustands zugrunde gelegt worden ist, nicht unmittelbar mit dem Punkt übereinstimmt, der zur Ermittlung des Ist-Amplitudenzustands verwendet worden ist. Nachdem eine möglichst gute Pegelartefaktreduktion für eine möglichst große Anzahl von Punkten im Vorführbereich angestrebt wird, ist es prinzipiell ausreichend, daß ein Soll- Amplitudenzustand für irgendeinen Punkt im Vorführbereich ermittelt wird, und daß ein Ist-Amplitudenzustand ebenfalls für irgendeinen Punkt im Vorführbereich ermittelt wird, wobei es jedoch bevorzugt wird, daß sich der Punkt, auf den der Ist-Amplitudenzustand bezogen ist, in einer Zone um den Punkt herum befindet, für den der Soll-Amplitudenzustand bestimmt worden ist, wobei diese Zone vorzugsweise kleiner als 2 Meter für normale Kinoanwendungen ist. Für beste Ergebnisse sollten diese Punkte im wesentlichen zusammenfallen.
Erfindungsgemäß wird somit nach Berechnung der Einzelpegel der Lautsprecher gemäß üblicher Wellenfeldsynthesealgorith- en der praktisch durch Überlagerung entstehende Pegel an diesem Punkt, der der Optimal-Punkt im Vorführbereich genannt wird, berechnet. Die Pegel der einzelnen Lautsprecher und/oder Quellen werden dann erfindungsgemäß mit diesem Faktor korrigiert. Für rechenzeiteffizienten Anwendungen wird es besonders bevorzugt, Korrekturfaktoren einmal für alle Positionen bei einer bestimmten Arrayanord- nung zu berechnen und abzuspeichern, um dann im Betrieb auf die Tabelle zuzugreifen, um Rechenzeiteinsparungen zu erreichen.
An dieser Stelle sei insbesondere auf Fig. 6b hingewiesen, in der die Einrichtung 914 zum Summieren eingezeichnet ist, um das Summensignal 916 ausgangsseitig zu liefern, während eingangsseitig die skalierten Objektsignale 912 erhalten werden, die, wie es aus Fig. 6b ersichtlich ist, durch Skalieren der Quellensignale der Quellen 1, 2, 3 mit den entsprechenden Audioobjektskalierungswerten bzw. Korrekturwerten Fl, F2, F3 erhalten werden. An dieser Stelle sei ferner darauf hingewiesen, daß für die vorliegende Erfindung der Tieftonkanalerzeugung die in Fig. 6b gezeigte Version bevorzugt wird, bei der bereits eine Skalierung bzw. Manipulation bzw. Korrektur auf Audioobjektsignalebene und nicht auf Komponentenebene, wie in Fig. 6a gezeigt, durchgeführt wird. Dennoch könnte auch das in Fig. 6a gezeigte Konzept der Korrektur auf Komponentenebene mit dem erfindungsgemäßen Konzept der Tieftonkanalerzeugung dadurch kombiniert werden, daß zumindest die Berechnung der Audioobjektskalierungswerte Fl, F2, ..., Fn nur einmal durchgeführt werden muß.
Erfindungsgemäß erfolgt die Skalierung des Subwooferkanals somit ähnlich zu der Skalierung der Gesamtlautstärke aller Lautsprecher in dem Bezugspunkt des Wellenfeldsynthesewie- dergabesystems . Das erfindungsgemäße Verfahren eignet sich somit für beliebig viele Subwooferlautsprecher, die alle so skaliert werden, daß sie im Mittelpunkt des Wellenfeldsyn- thesesystems eine Referenzlautstärke erreichen. Die Referenzlautstärke hängt hierbei nur von der Position der virtuellen Schallquelle ab. Mit den bekannten Abhängigkei- ten von Entfernung des Klangobjekts zum Referenzpunkt und der damit verbundenen Dämpfung der Lautstärke wird vorzugsweise die Einzellautstärke des jeweiligen Klangobjekts für jeden Subwooferkanal berechnet werden. Die Verzögerung jeder Quelle berechnet sich aus dem Abstand der virtuellen Quelle zum Bezugspunkt der Lautstärkenskalierung. Jeder Subwooferlautsprecher gibt die Summe aller so umgerechneten Klangobjekte wieder. Wie sich die Einzellautstärken der Subwooferlautsprecher addieren, hängt von deren Position ab. Die bevorzugte Positionierung von Subwooferlautspre- ehern und die Auswahl der Anzahl von erforderlichen Subwoo- fern sind in den bereits erwähnten Fachveröffentlichungen Welti, Todd, „How Many Subwoofers are Enough", 112th AES Conv. Paper 5602, Mai 2002, München, Deutschland, Martens, „The impact of decorrelated low-frequency reproduction on auditory spatial imagery: Are two subwoofers better than one?", 16th AES Conf. Paper, April 1999, Rovaniemi, Finnland, dargelegt.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Erzeugen eines Tieftonkanals, wie es anhand von Fig. 9 dargestellt ist, in Hardware oder in Software implementiert werden. Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Pegel-Korrigieren, wie es in Fig. 1 dargestellt ist, in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Spei- chermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, daß das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des Verfahrens zum Pegel- Korrigieren, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Pro- grammcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.

Claims

Patentansprüche
1. Vorrichtung zum Erzeugen eines Tieftonkanals (940, 942, 944) für einen Tieftonlautsprecher (1106, 1110), mit folgenden Merkmalen: einer Einrichtung (900) zum Bereitstellen einer Mehrzahl von Audioobjekten, wobei einem Audioobjekt ein Objektsignal und eine Objektbeschreibung zugeordnet ist; einer Einrichtung (906) zum Berechnen eines Audioob- jektskalierungswerts für jedes Audioobjekt abhängig von der Objektbeschreibung (904) ; einer Einrichtung (910) zum Skalieren jedes Objektsignals mit einem zugeordneten Audioobjektskalierungswert (908), um ein skaliertes Objektsignal (912) für jedes Audioobjekt zu erhalten; einer Einrichtung (914) zum Summieren der skalierten Objektsignale, um ein Summensignal (916) zu erhalten; und einer Einrichtung (918) zum Bereitstellen des Tieftonkanals (920, 940, 942, 944) für den Tieftonlautsprecher (1106, 1110) basierend auf dem Summensignal (916) .
2. Vorrichtung nach Anspruch 1, bei der der Tieftonlautsprecher an einer vorbestimmten Lautsprecherposition (1108, 1112) angeordnet ist, wobei die vorbestimmte Lautsprecherposition (1108) von einer Referenzwiedergabeposition (100) unterschiedlich ist, und bei der die Einrichtung (918) zum Bereitstellen des Tieftonkanals ausgebildet ist, um einen Lautsprecherskalierungswert für den Tieftonlautsprecher abhängig von der vorbestimmten Lautsprecherposition (1108) zu berechnen, so daß ein Tieftonsignal an der Referenzwiedergabeposition (1100) eine Lautstärke hat, die einer Lautstärke des Summensignals (916) innerhalb eines vorbestimmten Toleranzbereichs entspricht, und wobei die Einrichtung (918) zum Bereitstellen ferner ausgebildet ist, um das Summensignal (916) mit dem Lautsprecherskalierungswert zu skalieren, um den Tief- tonkanal (920, 940, 942, 944) zu erzeugen.
3. Vorrichtung nach Anspruch 1 oder 2, bei der jedes Objektsignal ein Tieftonsignal mit einer oberen Grenzfrequenz kleiner oder gleich 250 Hz ist.
4. Vorrichtung nach Anspruch 1 oder 2, bei der das Summensignal (916) eine obere Grenzfrequenz hat, die höher als 8 kHz ist, und bei der die Einrichtung (918) zum Bereitstellen des Tieftonkanals ausgebildet ist, um eine Tiefpaßfilterung mit einer Grenzfrequenz kleiner oder gleich 250 Hz durchzuführen.
' 5. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der ein Audioobjekt der Mehrzahl von Audioobjekten eine Objektbeschreibung umfaßt, die eine Audioobjekt- position umfaßt, und bei der die Einrichtung (906) zum Berechnen eines Audioobjektskalierungswerts für das Audioobjekt ausgebildet ist, um den Audioobjektskalierungswert abhängig von der Audioobjektposition des Audioobjekts und einer Referenzwiedergabeposition (1100) und abhängig von einer dem Audioobjekt zugeordneten Objektlautstärke durchzuführen .
6. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der eine Mehrzahl von Tieftonkanälen für eine Mehrzahl von Tieftonlautsprechern an vorbestimmten Tieftonlautsprecherpositionen erzeugbar ist, und bei der die Einrichtung (918) zum Bereitstellen ausgebildet ist, um abhängig von der Position eines Tieftonlautsprechers und abhängig von einer Anzahl von weiteren Tieftonlautsprechern für jeden Tieftonlautsprecher einen Lautsprecherskalierungswert zu berechnen, so daß ein Tieftonsignal, das eine Überlagerung von Ausgangssignalen aller Tieftonlautsprecher an der Referenzposition (1100) ist, eine Lautstärke hat, die einer Lautstärke des Summensignals (916) innerhalb eines vorbestimmten Toleranzbereichs entspricht.
7. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Einrichtung (906) zum Berechnen von Audio- objektskalierungswerten ferner ausgebildet ist, um einen Audioobjektverzögerungswert für jedes Audioobjekt ' zu berechnen, der von einer Objektposition und einer Referenzwiedergabeposition abhängt, und bei der die Einrichtung (914) zum Summieren ausgebildet ist, um jedes Objektsignal oder jedes skalierte Objektsignal vor dem Summieren um den entsprechenden Audioobjektverzögerungswert zu verzögern.
8. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Einrichtung (918) zum Bereitstellen ausgebildet ist, um für einen Tieftonlautsprecher einen Tieftonlautsprecherverzögerungswert zu berechnen, der von einer Entfernung des Tieftonlautsprechers von der Referenzwiedergabeposition abhängt, und bei der die Einrichtung (918) zum Bereitstellen ferner ausgebildet ist, um den Tieftonlautsprecherverzöge- rungswert beim Bereitstellen des Tieftonkanals zu berücksichtigen.
9. Vorrichtung nach Anspruch 2, bei der mehrere Tiefton- lautsprecher vorgesehen sind, und bei der ferner die Einrichtung (918) zum Bereitstellen ausgebildet ist, um die Lautsprecherskalierungswerte so zu berechnen, daß für jeden Tieftonlautsprecher ein Lautsprecherskalierungswert gemäß folgender Gleichung erhalten wird:
(ax + a2 + + an) s = LSref, wobei LSref eine Referenzlautstärke an einer Referenzwiedergabeposition (1100) ist, wobei s das Summensig- nal (916) ist, wobei ai der Lautsprecherskalierungswert eines ersten Tieftonlautsprechers ist, wobei a2 ein Lautsprecherskalierungswert eines zweiten Tieftonlautsprechers ist, und wobei an ein Lautsprecherskalierungswert eines n-ten Tieftonlautsprechers ist. ' 10. Vorrichtung nach Anspruch 9, bei der der Lautsprecherskalierungswert eines Tieftonlautsprechers von einer Entfernung des Tieftonlautsprechers von der Referenzwiedergabeposition (1100) abhängt.
11. Vorrichtung nach einem der vorhergehenden Ansprüche, die ausgebildet ist, um in einem Wellenfeldsynthesesystem mit einem Wellenfeldsynthesemodul (810) und einem Array (800) von Lautsprechern (808) zur Schallver- sorgung eines Vorführbereichs (802) zu arbeiten, wobei das Wellenfeldsynthesemodul ausgebildet ist, um ein einer virtuellen Schallquelle zugeordnetes Audiosignal sowie der virtuellen Schallquelle zugeordnete Quellen- Positionsinformationen zu empfangen und unter Berücksichtigung von Lautsprecherpositionsinformationen Komponentensignale für die Lautsprecher aufgrund der virtuellen Quelle zu berechnen, und bei der die Einrichtung (906) zum Berechnen der Audioobjektskalierungswerte (908) eine Einrichtung (100) zum Ermitteln eines Korrekturwerts als Audioobjektskalierungswert umfaßt, wobei die Einrichtung (100) zum Ermitteln ausgebildet ist, um den Audioobjektskalierungswert so zu berechnen, daß er auf einem Soll- Amplitudenzustand in dem Vorführbereich basiert, wobei der Soll-Amplitudenzustand von einer Position der virtuellen Quelle oder einer Art der virtuellen Quelle abhängt, und der ferner auf einem Ist- Amplitudenzustand in dem Vorführbereich basiert, der auf den Komponentensignalen für die Lautsprecher aufgrund der virtuellen Quelle basiert.
12. Vorrichtung nach Anspruch 11, bei der die Einrichtung (100) zum Ermitteln des Korrekturwerts (104) ausgebildet ist, um den Soll-Amplitudenzustand für einen vorbestimmten Punkt in dem Vorführbereich zu berechnen (500) , und um den Ist-Amplitudenzustand für eine Zone ' in dem Vorführbereich zu bestimmen (502), die gleich dem vorbestimmten Punkt ist oder sich im Rahmen eines Toleranzbereichs um den vorbestimmten Punkt herum erstreckt .
13. Vorrichtung nach Anspruch 12, bei der der vorbestimmte Toleranzbereich eine Kugel mit einem Radius kleiner als 2 Meter um den vorbestimmten Punkt ist.
14. Vorrichtung nach einem der Ansprüche 11 bis 13, bei der die virtuelle Quelle eine Quelle für ebene Wellen ist, und bei der die Einrichtung (100) zum Ermitteln des Korrekturwerts ausgebildet ist, um einen Korrekturwert zu ermitteln, bei dem ein Amplitudenzustand des der virtuellen Quelle zugeordneten Audiosignals gleich dem Soll-Amplitudenzustand ist.
15. Vorrichtung nach einem der Ansprüche 11 bis 14, bei der die virtuelle Quelle eine Punktquelle ist, und bei der die Einrichtung (100) zum Ermitteln des Korrekturfaktors ausgebildet ist, um auf der Basis eines Soll- Amplitudenzustands zu arbeiten, der gleich einem Quotienten aus einem Amplitudenzustand des der virtuellen Quelle zugeordneten Audiosignals und dem Abstand zwischen dem Vorführbereich und der Position der virtuellen Quelle ist.
16. Vorrichtung nach einem der Ansprüche 11 bis 15, bei der die Einrichtung (100) zum Ermitteln des Korrekturwerts ausgebildet ist, um basierend auf einem Ist-Amplitudenzustand zu arbeiten, für dessen Ermittlung eine Lautsprecher-Übertragungsfunktion des Laut- Sprechers (808) berücksichtigt ist.
17. Vorrichtung nach einem der Ansprüche 11 bis 16, bei der die Einrichtung (100) zum Ermitteln des Kor- ' rekturfaktors ausgebildet ist, um für jeden Lautsprecher einen Dämpfungswert zu berechnen, der von der Position des Lautsprechers und einem zu betrachtenden Punkt im Vorführbereich abhängt, und bei der die Einrichtung (100) zum Ermitteln ferner ausgebildet ist, um das Komponentensignal eines Lautsprechers mit dem Dämpfungswert für den Lautsprecher zu gewichten, um ein gewichtetes Komponentensignal zu erhalten, und um ferner Komponentensignale oder entsprechend gewichtete Komponentensignale von anderen Lautsprechern zu sura- mieren, um den Ist-Amplitudenzustand an dem betrachteten Punkt zu erhalten, auf dem der Korrekturwert (104) basiert .
18. Vorrichtung nach einem der Ansprüche 11 bis 17, bei der die Einrichtung (106) zum Manipulieren ausgebildet ist, um den Korrekturwert (104) als Korrekturfaktor zu verwenden, der gleich einem Quotienten aus dem Ist- Amplitudenzustand und dem Soll-Amplitudenzustand ist.
19. Vorrichtung nach Anspruch 18, bei der die Einrichtung (106) zum Manipulieren ausgebildet ist, um das der virtuellen Quelle zugeordnete Audiosignal vor dem Be- rechnen der Komponentensignale durch das Wellenfeldsynthesemodul (810) mit dem Korrekturfaktor zu skalieren.
20. Vorrichtung nach einem der Ansprüche 11 bis 19, bei der der Soll-Amplitudenzustand ein Soll- Schallpegel ist, und bei der der Ist-Amplitudenzustand ein Ist-Schallpegel ist.
21. Vorrichtung nach Anspruch 20, bei der der Soll- Schallpegel und der Ist-Schallpegel auf einer Soll- Schallstärke bzw. einer Ist-Schallstärke basieren, wobei die Schallstärke ein Maß für eine Energie ist, die in einer Zeitdauer auf eine Bezugsfläche fällt. '
22. Vorrichtung nach Anspruch 20 oder 21, bei der die Einrichtung (100) zum Ermitteln des Korrekturwerts ausgebildet ist, um den Soll-Amplitudenzustand durch abtastwertweises Quadrieren von Abtastwerten des Au- diosignals, das der virtuellen Quelle zugeordnet ist, und durch Aufsummieren einer Anzahl von quadrierten Abtastwerten zu berechnen, wobei die Anzahl ein Maß für eine Beobachtungszeit ist, und bei der die Einrichtung (100) zum Ermitteln des Korrekturwerts ferner ausgebildet ist, um den Ist- Amplitudenzustand zu berechnen, indem jedes Komponentensignal abtastwertweise quadriert wird und eine An- zahl von quadrierten Abtastwerten aufaddiert wird, die gleich der Anzahl von aufaddierten quadrierten Abtast- werten zur Berechnung des Soll-Amplitudenzustands ist, und wobei ferner Additionsergebnisse aus den Komponen- tensignalen aufaddiert werden, um ein Maß für den Ist- Amplitudenzustand zu erhalten.
23. Vorrichtung nach einem der Ansprüche 11 bis 22, bei der die Einrichtung (100) zum Ermitteln des Korrektur- werts (104) eine Nachschlagtabelle (400) aufweist, in der Positions-Korrekturfaktor-Wertepaare gespeichert sind, wobei ein Korrekturfaktor eines Wertepaars von einer Anordnung der Lautsprecher in dem Array von Lautsprechern und einer Position einer virtuellen Quelle abhängt, und wobei der Korrekturfaktor so gewählt ist, daß eine Abweichung zwischen einem Ist- Amplitudenzustand aufgrund der virtuellen Quelle an der zugeordneten Position und einem Soll- Amplitudenzustand bei einer Verwendung des Korrektur- faktors durch die Einrichtung (106) zum Manipulieren zumindest reduziert wird.
24. Vorrichtung nach Anspruch 23, bei der die Einrichtung (100) zum Ermitteln ferner ausgebildet ist, um einen ' aktuellen Korrekturfaktor für eine aktuelle Position der virtuellen Quelle aus einem oder mehreren Korrekturfaktoren aus Positions-Korrekturfaktor-Wertepaaren zu interpolieren (402), deren Position bzw. Positionen neben der aktuellen Position liegen.
25. Verfahren zum Erzeugen eines Tieftonkanals (940, 942, 944) für einen Tieftonlautsprecher (1106, 1110), mit folgenden Schritten: Bereitstellen (900) einer Mehrzahl von Audioobjekten, wobei einem Audioobjekt ein Objektsignal und eine Objektbeschreibung zugeordnet ist; Berechnen (906) eines Audioobjektskalierungswerts für jedes Audioobjekt abhängig von der Objektbeschreibung (904); Skalieren (910) jedes Objektsignals mit einem zugeordneten Audioobjektskalierungswert (908), um ein skaliertes Objektsignal (912) für jedes Audioobjekt zu erhalten; Summieren (914) der skalierten Objektsignale, um ein Summensignal (916) zu erhalten; und
Bereitstellen (918) des Tieftonkanals (920, 940, 942, 944) für den Tieftonlautsprecher (1106, 1110) basie- rend auf dem Summensignal (916) .
26. Computerprogramm mit einem Programmcode zur Durchführen des Verfahrens nach Anspruch 25, wenn das Programm auf einem Computer abläuft.
PCT/EP2004/013130 2003-11-26 2004-11-18 Vorrichtung und verfahren zum erzeugen eines tieftonkanals WO2005060307A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP04797996A EP1671516B1 (de) 2003-11-26 2004-11-18 Vorrichtung und verfahren zum erzeugen eines tieftonkanals
DE502004002926T DE502004002926D1 (de) 2003-11-26 2004-11-18 Vorrichtung und verfahren zum erzeugen eines tieftonkanals
JP2006540333A JP4255031B2 (ja) 2003-11-26 2004-11-18 低周波チャネルを生成する装置および方法
US11/440,853 US8699731B2 (en) 2003-11-26 2006-05-25 Apparatus and method for generating a low-frequency channel

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10355146.8 2003-11-26
DE10355146A DE10355146A1 (de) 2003-11-26 2003-11-26 Vorrichtung und Verfahren zum Erzeugen eines Tieftonkanals

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/440,853 Continuation US8699731B2 (en) 2003-11-26 2006-05-25 Apparatus and method for generating a low-frequency channel

Publications (1)

Publication Number Publication Date
WO2005060307A1 true WO2005060307A1 (de) 2005-06-30

Family

ID=34638189

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/013130 WO2005060307A1 (de) 2003-11-26 2004-11-18 Vorrichtung und verfahren zum erzeugen eines tieftonkanals

Country Status (6)

Country Link
US (1) US8699731B2 (de)
EP (1) EP1671516B1 (de)
JP (1) JP4255031B2 (de)
CN (1) CN100588286C (de)
DE (2) DE10355146A1 (de)
WO (1) WO2005060307A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219228A (ja) * 2007-03-01 2008-09-18 Yamaha Corp 音響再生装置
JP2010506521A (ja) * 2006-10-11 2010-02-25 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 再生空間を画定するラウドスピーカアレイのための複数のラウドスピーカ信号の生成装置及びその方法
JP2016524883A (ja) * 2013-06-18 2016-08-18 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ・レンダリングのためのベース管理
CN111133411A (zh) * 2017-09-29 2020-05-08 苹果公司 空间音频上混

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
DE102005033238A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Mehrzahl von Lautsprechern mittels eines DSP
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
US9031267B2 (en) * 2007-08-29 2015-05-12 Microsoft Technology Licensing, Llc Loudspeaker array providing direct and indirect radiation from same set of drivers
JP5338053B2 (ja) * 2007-09-11 2013-11-13 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
DE102007059597A1 (de) 2007-09-19 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Eine Vorrichtung und ein Verfahren zur Ermittlung eines Komponentensignals in hoher Genauigkeit
KR100943215B1 (ko) * 2007-11-27 2010-02-18 한국전자통신연구원 음장 합성을 이용한 입체 음장 재생 장치 및 그 방법
KR101461685B1 (ko) * 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
US8620009B2 (en) * 2008-06-17 2013-12-31 Microsoft Corporation Virtual sound source positioning
KR101387195B1 (ko) 2009-10-05 2014-04-21 하만인터내셔날인더스트리스인코포레이티드 오디오 신호의 공간 추출 시스템
US8553722B2 (en) * 2011-12-14 2013-10-08 Symboll Technologies, Inc. Method and apparatus for providing spatially selectable communications using deconstructed and delayed data streams
KR20140046980A (ko) * 2012-10-11 2014-04-21 한국전자통신연구원 오디오 데이터 생성 장치 및 방법, 오디오 데이터 재생 장치 및 방법
JP5590169B2 (ja) * 2013-02-18 2014-09-17 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
CN105144751A (zh) * 2013-04-15 2015-12-09 英迪股份有限公司 用于产生虚拟对象的音频信号处理方法
CN105432098B (zh) 2013-07-30 2017-08-29 杜比国际公司 针对任意扬声器布局的音频对象的平移
DE102013218176A1 (de) 2013-09-11 2015-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur dekorrelation von lautsprechersignalen
WO2015147434A1 (ko) * 2014-03-25 2015-10-01 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 장치 및 방법
JP5743003B2 (ja) * 2014-05-09 2015-07-01 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
JP2016100613A (ja) * 2014-11-18 2016-05-30 ソニー株式会社 信号処理装置、信号処理方法、およびプログラム
US20160171987A1 (en) * 2014-12-16 2016-06-16 Psyx Research, Inc. System and method for compressed audio enhancement
EP3335436B1 (de) 2015-08-14 2021-10-06 DTS, Inc. Bassregelung für objektbasiertes audio
US9794689B2 (en) * 2015-10-30 2017-10-17 Guoguang Electric Company Limited Addition of virtual bass in the time domain
WO2018189819A1 (ja) * 2017-04-12 2018-10-18 ヤマハ株式会社 情報処理装置、情報処理方法、及びプログラム
WO2020081674A1 (en) * 2018-10-16 2020-04-23 Dolby Laboratories Licensing Corporation Methods and devices for bass management
US11968518B2 (en) 2019-03-29 2024-04-23 Sony Group Corporation Apparatus and method for generating spatial audio
JP2021048500A (ja) * 2019-09-19 2021-03-25 ソニー株式会社 信号処理装置、信号処理方法および信号処理システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993018630A1 (en) * 1992-03-02 1993-09-16 Trifield Productions Ltd. Surround sound apparatus
EP1126745A2 (de) * 2000-02-14 2001-08-22 Pioneer Corporation Schallfeld-korrekturverfahren in einem Audiosystem
WO2003071827A2 (en) * 2002-02-19 2003-08-28 1... Limited Compact surround-sound system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8800745A (nl) * 1988-03-24 1989-10-16 Augustinus Johannes Berkhout Werkwijze en inrichting voor het creeren van een variabele akoestiek in een ruimte.
JPH02296498A (ja) 1989-05-11 1990-12-07 Matsushita Electric Ind Co Ltd 立体音響再生装置および立体音響再生装置内蔵テレビセット
JP3067140B2 (ja) 1989-11-17 2000-07-17 日本放送協会 立体音響再生方法
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US6240189B1 (en) * 1994-06-08 2001-05-29 Bose Corporation Generating a common bass signal
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
DE19739425A1 (de) 1997-09-09 1999-03-11 Bosch Gmbh Robert Verfahren und Anordnung zur Wiedergabe eines sterophonen Audiosignals
US6349285B1 (en) * 1999-06-28 2002-02-19 Cirrus Logic, Inc. Audio bass management methods and circuits and systems using the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1993018630A1 (en) * 1992-03-02 1993-09-16 Trifield Productions Ltd. Surround sound apparatus
EP1126745A2 (de) * 2000-02-14 2001-08-22 Pioneer Corporation Schallfeld-korrekturverfahren in einem Audiosystem
WO2003071827A2 (en) * 2002-02-19 2003-08-28 1... Limited Compact surround-sound system

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MARTENS, WILLIAM L.: "THE IMPACT OF DECORRELATED LOW-FREQUENCY REPRODUCTION ON AUDITORY SPATIAL IMAGERY: ARE TWO SUBWOOFERS BETTER THAN ONE?", AES 16TH INTERNATIONAL CONFERENCE ON SPATIAL SOUND REPRODUCTION, 12 April 1999 (1999-04-12), ROVANIEMI, FINLAND, pages 1 - 11, XP002318291, Retrieved from the Internet <URL:http://www.music.mcgill.ca/~wlm/papers/decor.html> [retrieved on 20050217] *
RABENSTEIN ET AL.: "Raumklangwiedergabe und der MPEG-4 Standard: Das CARROUSO-Projekt", VDT INTERNATIONAL AUDIO CONVENTION, 25 November 2002 (2002-11-25), HANNOVER, pages 1 - 12, XP002318292, Retrieved from the Internet <URL:http://www.slt.atr.jp/~wherbord/archives/mypub/Rabenstein-Raumklangwiedergabe_und_der_MPEG-4_Standard-Das_CARROUSO-Projekt.pdf> [retrieved on 20050218] *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010506521A (ja) * 2006-10-11 2010-02-25 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 再生空間を画定するラウドスピーカアレイのための複数のラウドスピーカ信号の生成装置及びその方法
US8358091B2 (en) 2006-10-11 2013-01-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a number of loudspeaker signals for a loudspeaker array which defines a reproduction space
JP2008219228A (ja) * 2007-03-01 2008-09-18 Yamaha Corp 音響再生装置
JP2016524883A (ja) * 2013-06-18 2016-08-18 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ・レンダリングのためのベース管理
CN111133411A (zh) * 2017-09-29 2020-05-08 苹果公司 空间音频上混
CN111133411B (zh) * 2017-09-29 2023-07-14 苹果公司 空间音频上混

Also Published As

Publication number Publication date
EP1671516A1 (de) 2006-06-21
US20060280311A1 (en) 2006-12-14
JP2007512740A (ja) 2007-05-17
DE502004002926D1 (de) 2007-03-29
JP4255031B2 (ja) 2009-04-15
DE10355146A1 (de) 2005-07-07
EP1671516B1 (de) 2007-02-14
CN100588286C (zh) 2010-02-03
CN1906971A (zh) 2007-01-31
US8699731B2 (en) 2014-04-15

Similar Documents

Publication Publication Date Title
EP1671516B1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
EP1637012B1 (de) Wellenfeldsynthesevorrichtung und verfahren zum treiben eines arrays von lautsprechern
EP1525776B1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
EP1782658B1 (de) Vorrichtung und verfahren zum ansteuern einer mehrzahl von lautsprechern mittels eines dsp
EP1851998B1 (de) Vorrichtung und Verfahren zum Liefern von Daten in einem Multi-Renderer-System
EP1972181A1 (de) Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
EP2080411A1 (de) Vorrichtung und verfahren zum erzeugen einer anzahl von lautsprechersignalen für ein lautsprecher-array, das einen wiedergaberaum definiert
EP1606975B1 (de) Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal
EP2754151B1 (de) Vorrichtung, verfahren und elektroakustisches system zur nachhallzeitverlängerung
DE10254470A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
EP4324222A1 (de) Vorrichtung und verfahren zum erzeugen eines ersten ansteuersignals und eines zweiten ansteuersignals unter verwendung einer linearisierung und/oder einer bandbreiten-erweiterung
DE112006002548T5 (de) Vorrichtung und Verfahren zur Wiedergabe von virtuellem Zweikanal-Ton

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004797996

Country of ref document: EP

DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2006540333

Country of ref document: JP

Ref document number: 11440853

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Country of ref document: DE

WWP Wipo information: published in national office

Ref document number: 2004797996

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 200480041003.4

Country of ref document: CN

WWP Wipo information: published in national office

Ref document number: 11440853

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 2004797996

Country of ref document: EP