EP1671516B1 - Device and method for producing a low-frequency channel - Google Patents

Device and method for producing a low-frequency channel Download PDF

Info

Publication number
EP1671516B1
EP1671516B1 EP04797996A EP04797996A EP1671516B1 EP 1671516 B1 EP1671516 B1 EP 1671516B1 EP 04797996 A EP04797996 A EP 04797996A EP 04797996 A EP04797996 A EP 04797996A EP 1671516 B1 EP1671516 B1 EP 1671516B1
Authority
EP
European Patent Office
Prior art keywords
loudspeaker
low
frequency
signal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP04797996A
Other languages
German (de)
French (fr)
Other versions
EP1671516A1 (en
Inventor
Michael Beckinger
Sandra Brix
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP1671516A1 publication Critical patent/EP1671516A1/en
Application granted granted Critical
Publication of EP1671516B1 publication Critical patent/EP1671516B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control

Definitions

  • the present invention relates to generating one or more low frequency channels, and more particularly to generating one or more low frequency channels associated with a multi-channel audio system, such as a wave field synthesis system.
  • Wave Field Synthesis was researched at the TU Delft and first introduced in the late 1980s (Berkhout, AJ, de Vries, D .; Vogel, P .: Acoustic Control by Wave-field Synthesis, JASA 93, 1993).
  • Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront.
  • a so-called speaker array any shape of an incoming wavefront.
  • the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap.
  • the contribution to each speaker is calculated separately for each source and the resulting signals added together.
  • reflections can also be reproduced as additional sources via the loudspeaker array. The effort in the calculation therefore depends heavily on the number of strongly depending on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
  • the advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible.
  • the direction and distance of sound sources are reproduced very accurately.
  • virtual sound sources can even be positioned between the real speaker array and the listener.
  • wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
  • the technique of wave field synthesis can also be used advantageously to supplement a visual perception with a corresponding spatial audio perception.
  • production in virtual studios focused on providing an authentic visual impression of the virtual scene.
  • the matching to the image acoustic impression is usually impressed by manual operations in the so-called post-production subsequently the audio signal or classified as too complex and time-consuming in the realization and therefore neglected. This usually leads to a contradiction of the individual sense sensations, which leads to the space being designed, i. H. the designed scene is perceived as less authentic.
  • the canvas or image surface forms the viewing direction and the perspective of the viewer. This means that the sound should track the image in the form that it always coincides with the viewed image. This becomes even more important for virtual studios, as there is typically no correlation between the moderation sound, for example, and the environment in which the presenter is currently located.
  • An essential subjective characteristic of such a sonic concept in this context is the location of a sound source, as perceived by a viewer, for example, a movie screen.
  • Wave Field Synthesis In the audio field, the technique of Wave Field Synthesis (WFS) can be used to achieve a good spatial sound for a large listener area.
  • wave field synthesis is based on the principle of Huygens, according to which wavefronts can be formed and built up by superimposing elementary waves. After mathematically exact theoretical description, infinitely many sources at infinitely small distance would have to be used for the generation of the elementary waves. Practically, however, many speakers are finally used at a finite distance from each other.
  • Each of these loudspeakers is used according to the WFS principle with an audio signal from a virtual source that has a specific delay and a has certain level, driven. Levels and delays are usually different for all speakers.
  • the wave field synthesis system operates on the basis of the Huygens principle and reconstructs a given waveform of, for example, a virtual source located at a certain distance from a demonstration area or a listener in the show area by a plurality of single waves .
  • the wave field synthesis algorithm thus obtains information about the actual position of a single loudspeaker from the loudspeaker array and then to compute a component signal for that single loudspeaker that this loudspeaker ultimately has to radiate to allow the listener to superpose the loudspeaker signal from one loudspeaker to the loudspeaker signals from the other active ones Speaker performs a reconstruction in that the listener has the impression that he is not "sonicated" by many individual speakers, but only from a single speaker at the position of the virtual source.
  • each virtual source for each loudspeaker that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc.
  • the contribution from each virtual source for each loudspeaker is calculated to then add up the component signals finally get the actual speaker signal.
  • the superimposition of the loudspeaker signals of all active loudspeakers on the listener would result in the listener not feeling that he is being sonicated by a large array of loudspeakers, but that the sound he hears is merely from three sound sources positioned at specific positions, which are equal to the virtual sources.
  • the calculation of the component signals is in practice usually characterized by the fact that the audio signal associated with a virtual source, depending on the position of the virtual source and position of the speaker at a given time with a delay and a scaling factor is applied to a delayed and / or scaled audio signal of the to obtain a virtual source that directly represents the loudspeaker signal when there is only one virtual source, or that adds to other component signals for the considered loudspeaker from other virtual sources then to the loudspeaker signal for the considered loudspeaker.
  • Typical wave field synthesis algorithms work regardless of how many loudspeakers are present in the loudspeaker array.
  • the underlying theory of wave field synthesis is that any sound field can be accurately reconstructed by an infinite number of individual speakers, with the individual individual speakers arranged infinitely close to each other. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there are a limited number of speakers, which are also arranged at certain predetermined distances from each other. Thus, in real systems, only an approximation to the actual waveform that would occur if the virtual source were actually present, would be a real source.
  • the loudspeaker array is only viewed when viewing a movie theater, e.g. B. is arranged on the side of the movie screen.
  • the wave-field synthesis module would generate loudspeaker signals for these loudspeakers, the loudspeaker signals for these loudspeakers normally being the same as for corresponding loudspeakers in a loudspeaker array extending not only over the side of a cinema, for example, on which the screen is arranged, but also the left, right and behind the audience room is arranged.
  • this "360 °" speaker array will provide a better approximation to an exact wave field than just a one-sided array, for example, in front of the viewers.
  • a wave-field synthesis module typically does not receive feedback on how many speakers are present or whether it is a one-sided or multi-sided or even a 360 ° array or not.
  • a wave field synthesizer calculates a loudspeaker signal for a loudspeaker based on the position of the loudspeaker and regardless of which other loudspeakers still exist or are absent.
  • a listener of the virtual source senses a level of the source resulting from the individual levels of the component signals of the virtual source individual loudspeaker signals.
  • Wave field synthesis devices are also capable of replicating several different types of sources.
  • a prominent source form is the point source, where the level decreases proportionally 1 / r, where r is the distance between a listener and the position of the virtual source.
  • Another source form is a source that emits plane waves.
  • the level remains constant regardless of the distance to the listener, since plane waves can be generated by point sources, which are arranged at an infinite distance.
  • the so-called subwoofer principle is used in such existing five-channel systems or seven-channel systems.
  • the subwoofer principle is used in multi-channel playback systems to save expensive and large woofers.
  • a low-frequency channel is used, which contains only music signals with frequencies lower than a cut-off frequency of about 120 Hz. This low-frequency channel drives a woofer with a large diaphragm area, which achieves high sound pressure, especially at low frequencies.
  • the subwoofer principle makes use of the fact that the human ear can localize low-frequency sounds in the direction very difficult to locate.
  • an extra woofer channel is already mixed in the sound mixing for a special speaker arrangement (spatial arrangement).
  • Examples of such multi-channel playback systems are Dolby Digital, Sony SDDS and DTS.
  • the subwoofer channel can be mixed regardless of the room size to be sounded, since the spatial relationships change only to scale.
  • the speaker assembly remains the same to scale.
  • WFS wave field synthesis
  • the number of speaker channels is related to the size of the audience area.
  • the number of loudspeaker channels is determined by how densely the loudspeakers are distributed over the circumference of the surface to be sounded. The quality of the WFS playback system depends on this density.
  • the volume is related to the number of loudspeaker channels and the density of the loudspeakers, since all loudspeaker channels add up to a wave field.
  • the volume of a WFS system is therefore not readily predetermined.
  • the volume of the subwoofer channel is predetermined with the known parameters of the electric amplifier and the loudspeaker.
  • the object of the present invention is to provide a concept for generating a woofer channel in a multi-channel reproducing system which enables reduction of level artifacts.
  • This object is achieved by a device for generating a woofer channel according to claim 1 or a method for generating a woofer channel according to claim 25 or by a computer program according to claim 26.
  • the present invention is based on the finding that the woofer channel for a woofer or that several woof channels for several woofers in a multi-channel system is not already generated in a sound mixing process, which is independent of an actual Playback room takes place, but that reference is made to the actual playback room by the predetermined position of the woofer on the one hand and properties of audio objects, which are typically virtual sources, on the other hand also taken into account to produce the bass channel.
  • audio objects are assumed, wherein an audio object is assigned an object description on the one hand and an object signal on the other hand.
  • an audio object scaling value is calculated for each audio object signal, which is then used to scale each object signal, and then summed up the scaled object signals to obtain a summed signal. From the sum signal then the bass channel is derived, which is supplied to the woofer.
  • the scaled audio object signals are then summed to obtain a summed signal. From this summation signal is then derived again in the case in which only a single woofer, the bass channel. This can be done by simple low-pass filtering.
  • the low-pass filtering can already be performed with the still unscaled audio object signals, so that only low-pass signals are processed further, so that the sum signal is already the low-frequency channel itself.
  • a subwoofer channel is not already mixed in the sound mixing process from the virtual sources, ie the sound material for the wave field synthesis. Instead, the mix automatically occurs when playing in the wave-field synthesis system, regardless of the size of the system and the number of speakers.
  • the volume of the subwoofer signal depends on the number and on the circumference of the fringed area of the wave field synthesis system. Even prescribed loudspeaker arrangements no longer have to be complied with, since loudspeaker position and loudspeaker number are included in the generation of the bass channel.
  • the present invention is not limited to wave field synthesis systems, but can be generally applied to any multichannel reproduction system in which the mixing and generation, that is, the rendering, of the reproduction channels, that is, the speaker channels themselves, only at the actual playback takes place.
  • Systems of this type are, for example, 5.1 systems, 7.1 systems, etc.
  • the inventive low frequency channel generation is combined with a level artifact reduction to perform level corrections in a wave field synthesis system not only for low frequency channels but for all loudspeaker channels to be independent of the number and position of the speakers used with respect to the wave field synthesis algorithm used.
  • the woofer will not be located in a reference display position for which optimum level correction is performed.
  • the sum signal is scaled by taking into account the position of the woofer using a speaker scale value to be calculated.
  • This scaling will preferably be only amplitude scaling and no phase scaling, taking into account the fact that the ear does not have good localization at the low frequencies present in the low frequency channel, but only shows accurate amplitude / volume perception.
  • a scaling can be used as scaling, if such is desired in an application scenario.
  • a separate woofer channel is created for each woofer.
  • the bass channels of the individual woofers preferably differ only in their amplitude, but not in the signal itself. All woofers thus emit the same sum signal, but with different amplitude scaling, the amplitude scaling for a single one Subwoofer depending on the distance of the individual woofer to the reference reproduction point is done.
  • the invention ensures that the overall volume of all superimposed low-frequency channels at the reference playback position is equal to the volume of the sum signal or the loudspeaker of the sum signal corresponds at least within a predetermined tolerance range. For this purpose, a separate loudspeaker scaling value is calculated for each individual low-frequency channel, with which the summation signal is then scaled accordingly in order to obtain the individual low-frequency channel.
  • a subwoofer channel is particularly advantageous in that it leads to a significant price reduction, since the individual speakers z.
  • the present invention is further advantageous in that the one or more low-frequency channels for any speaker assemblies and multi-channel formats can be generated automatically, which requires only a small overhead, especially in the context of a wave field synthesis system, since the wave field synthesis system anyway performs a level correction.
  • each virtual source ie each sound object or audio object
  • the audio signal of each virtual source is scaled and delayed accordingly, and then summed up all the virtual sources. This will calculate the overall volume and delay of the subwoofer, depending on its distance from the reference point, if the subwoofer is not already in the reference point.
  • the individual volumes of all subwoofers it is preferred to first determine the individual volumes of all subwoofers depending on their distances to the reference point. In this case, it is preferable to adhere to the boundary condition that the sum of all subwoofer channels is equal to the reference volume at the reference reproduction position, which preferably corresponds to the midpoint of the wave field synthesis system.
  • corresponding scaling factors are calculated per subwoofer, but initially again individual volume and delay of each virtual source relative to the reference point are determined. Then each virtual source is again scaled accordingly and optionally delayed, then summing all the virtual sources to the sum signal, which is then scaled by the individual scaling factors for each subwoofer channel to obtain the individual bass channels for the different woofers.
  • the wave field synthesis algorithm calculates both volume and delay for each loudspeaker channel and each virtual source.
  • the position of the individual loudspeaker must be known.
  • This scaling of the individual audio object signals for the individual wave field synthesis system loudspeakers, ie the individual loudspeakers of the array, is based on the finding that the shortcomings of a wave field synthesis system with a (practically realizable) finite number of loudspeakers can at least be mitigated if a level correction is carried out, in that either the pre-wave field synthesis audio signal or the component signals for different loudspeakers originating from a virtual source are manipulated after wavefield synthesis using a correction value to detect a deviation between a desired amplitude state in a demonstration area and an actual area. Amplitude state in the demonstration area to reduce. The desired amplitude state results from the fact that depending on the position of the virtual source, and z. B.
  • a target level is determined as an example of a desired amplitude state, and further that an actual level as an example an actual amplitude state is determined at the listener. While the target amplitude state is determined independently of the actual grouping and type of individual loudspeakers only on the basis of the virtual source or its position, the actual situation is calculated taking into account the positioning, type and control of the individual loudspeakers of the loudspeaker array.
  • the sound level at the ear of the listener can be determined at the optimum point within the performance area due to component signals of the virtual source radiated through a single speaker.
  • the level at the ear of the listener can also be determined at the optimum point within the presentation area, and then, by combining these levels, the actual actual level at the ear of the listener To receive the listener.
  • the transfer function of each individual loudspeaker as well as the level of the signal on the loudspeaker and the distance of the listener in the considered point within the presentation area to the individual loudspeaker can be taken into account.
  • the transmission characteristic of the loudspeaker can be assumed to work as an ideal point source.
  • the directional characteristic of the individual loudspeakers can also be taken into account.
  • a significant advantage of this concept is that in one embodiment, where sound levels are considered, only multiplicative scalings occur, in that for a quotient between the desired level and the actual level that gives the correction value, not the absolute level the listener or the absolute level of the virtual source is required. Instead, the correction factor depends only on the position of the virtual source (and hence the positions of the individual speakers) and the optimal point within the demonstration area. However, these quantities are fixed with respect to the position of the optimum point and the positions and transmission characteristics of the individual speakers and are not dependent on a piece being played.
  • the concept can be implemented computationally efficiently as a look-up table, in that a look-up table is generated and used that includes position correction factor value pairs for all or a substantial portion of possible virtual positions. In this case, then no on-line setpoint determination, actual value determination and setpoint / actual value comparison algorithm is to be carried out.
  • These algorithms which can be computationally expensive, can be dispensed with if the look-up table is accessed on the basis of a position of a virtual source, in order to determine therefrom the correction factor valid for this position of the virtual source.
  • a virtual source with a particular calibration level would be placed at a particular virtual location.
  • a wave field synthesis module would compute the loudspeaker signals for the individual loudspeakers to eventually measure on the listener the actual level due to the virtual source.
  • a correction factor would then be determined such that it at least reduces the deviation from the desired level to the actual level, or preferably brings it to zero.
  • This correction factor would then be stored in the look-up table in association with the position of the virtual source so as to gradually generate, for many positions of the virtual source, the entire look-up table for a particular wave-field synthesis system in a particular presentation room.
  • the audio signal of the virtual source such as recorded in an audio track coming from a recording studio
  • the correction factor it is preferable to manipulate the audio signal of the virtual source, such as recorded in an audio track coming from a recording studio, with the correction factor, and then to feed the manipulated signal into a wave field synthesis module.
  • this automatically means that all component signals going back to this manipulated virtual source are also weighted accordingly, compared to the case where no correction has been made in accordance with the present invention.
  • the correction factor is not necessarily identical for all component signals got to. However, this is largely preferred so as not to overly affect the relative scaling of the component signals required to reconstruct the actual wave situation.
  • One advantage is that with relatively simple measures, at least during operation, a level correction can be made to the effect that the listener, at least with regard to perceived by him volume of a virtual source not notice that not the actually required infinitely many speakers are present but only a limited amount of speakers.
  • Another advantage is that even if a virtual source moves at a constant distance (eg, from left to right) with respect to the viewer, this source for the viewer sitting in the middle in front of the screen, for example, always the same is loud and not even louder and once quieter, which would be the case without correction.
  • a further advantage is that it provides the option of offering lower cost wave field synthesis systems with fewer speakers, yet without any level artifacts, particularly for moving sources, thus acting as well for a listener as to the level problem more complex wave field synthesis systems with a high number of speakers. Also for holes in the array may be corrected to low levels according to the invention.
  • Fig. 9 shows an apparatus for generating a woofer channel for a woofer located at a predetermined loudspeaker position.
  • the device shown in FIG. 9 initially comprises a device 900 for providing a plurality of audio objects, an audio object having an audio object signal 902 and an audio object description 904 associated therewith.
  • the audio object description will typically include an audio object position and possibly also the audio object type.
  • the audio object description may also directly include an indication of the audio object volume. If this is not the case, then the audio object volume is easily calculated from the audio object signal itself, for example by sample-by-sample squaring and summation over a certain period of time. If the transfer function, frequency response, etc.
  • the object description of the audio signal is supplied to a means 906 for calculating an audio object scaling value for each audio object.
  • the individual audio object scaling values 908 are then applied to means 910 for scaling the object signals, as shown in FIG. 9.
  • the means 906 for calculating the audio object scaling value is configured to calculate an audio object scaling value for each audio object depending on the object description. If it is a source that emits plane waves, then the audio object scaling value or correction factor will be equal to 1 because for such plane-wave audio objects, a spacing between the position of that object and the optimal reference playback position is insignificant because the virtual position in this case is adopted at infinity.
  • the audio object scale value becomes dependent on the volume of the object either in the object description or derived from the object signal and the distance between the virtual object The position of the audio object and the reference playback position is calculated.
  • the audio object scaling value it is preferable to calculate the audio object scaling value to be considered to be based on a target amplitude state in the demonstration area, wherein the target amplitude state depends on a position of the virtual source or a kind of the virtual source the correction value is further based on an actual amplitude state in the demonstration area based on the component signals for the individual speakers due to the considered virtual source.
  • the correction value is thus calculated so that a deviation between the desired amplitude state and the actual amplitude state is reduced by a manipulation of the audio signal assigned to the virtual source using the correction value.
  • a delay possibly due to different virtual positions so that the individual audio object signals, which are present as sequences of samples, are shifted in respect of a time reference, to sufficiently account for propagation time differences of the sound signal from the virtual position to the reference playback position.
  • the scaled and correspondingly delayed object signals are then sampled by means 914 to obtain a sum signal having a sequence of sum signal samples, designated 916 in FIG.
  • This sum signal 916 is supplied to a device 918 for providing the woofer channel for the one or more subwoofers, which outputs the subwoofer signal or the woof channel 920 on the output side.
  • the sound signal emitted by a woofer is not a full bandwidth sound signal but with an upwardly limited bandwidth.
  • the cut-off frequency of the sound signal emitted by a woofer be less than 250 Hz, and preferably even only 125 Hz.
  • the band limitation of this sound signal can be done at different locations. A simple measure is to provide the woofer with a full bandwidth excitation signal which is then band limited by the woofer itself, as it only translates low frequencies into sound signals but suppresses high frequencies.
  • the band limitation may also be performed in the means 918 for providing the bass channel, by low-pass filtering the signal there prior to digital-to-analog conversion, this low-pass filtering, since it can be performed on the digital side, is preferred so that clear conditions exist independently of the actual implementation of the subwoofer.
  • the low-pass filtering may already occur prior to means 910 for scaling the object signals, so that the operations performed by means 910, 914, 918 are now performed with low-pass signals rather than full-bandwidth signals.
  • the low-pass filtering in the device 918 so that the calculation of the audio object scaling values, the scaling of the object signals and the summation with full bandwidth signals is performed to best match the loudspeakers between woofer on the one hand and midtone and treble on the other hand sure.
  • FIG. 10 shows a preferred embodiment of the means 918 for providing now multiple low frequency channels for multiple subwoofers.
  • FIG. 11 schematically shows a wave field synthesis system with a plurality of individual loudspeakers 808.
  • the single speakers 808 form an array 800 of single speakers enclosing the demonstration area.
  • Preferably within the demonstration area is the reference reproduction position or reference point 1100.
  • FIG. 11 is also schematically an audio object 1102, which is referred to as a "virtual sound object".
  • the virtual sound object 1102 includes an object description representing a virtual position 1104.
  • the distance D of the virtual sound object 1102 from the reference reproduction position 100 can be determined.
  • a simple audio object scaling value calculation can already be carried out, namely on the basis of the law which will be explained in detail later in FIG. 7a.
  • FIG. 11 further shows a first woofer 1106 at a first predetermined loudspeaker position 1108 and a second woofer 1110 at a second woofer position 1112. As shown in FIG.
  • the second subwoofer 1110 and each other are not shown in FIG additional subwoofer optional.
  • the first subwoofer 1106 has a distance d1 from the reference point 1100
  • the second subwoofer 1110 has a distance d2 from the reference point.
  • a subwoofer n (not shown in FIG. 11) has a distance dn from the reference point 1100.
  • the means 918 for providing the bass channel is adapted to include, in addition to the sum signal 916, denoted by s in Fig. 10, also the distance d1 of the woofer 1, designated 930, to the distance d2 of the woofer 2 labeled 932 and the distance dn of the woofer n designated 934.
  • means 918 provides a first woofer channel 940, a second woofer channel 942, and an nth woofer channel 944. From Fig.
  • woof channels 940, 942, 944 are weighted versions of the sum signal 916, the respective weighting factors being a 1 , a 2 , ..., a n are designated.
  • the individual weighting factors a 1 , a 2 , a n depend on the one hand on the distances 930-934 and on the other hand from the general boundary condition that the volume of the bass channels at the reference point 100 is equal to the reference volume, that is, the target amplitude state for the bass channel at the reference playback position 1100 (FIG. 11).
  • the sum of the loudspeaker scaling values a 1 , a 2 , a n will be greater than 1 to account for the attenuation of the bass channels on the way from the corresponding subwoofer to the reference point. If only a single woofer (eg, 1106) is provided, the scaling factor a 1 will also be greater than 1, while no further scaling factors are to be calculated, as there is only a single woofer.
  • FIGS. 1-8 there is shown a level artifact correction device for the loudspeaker array 800 in FIGS. 8 and 11, respectively, which are preferably combined with the inventive low frequency channel calculation as illustrated in FIGS. 9-11 can.
  • the wave field synthesis system has a speaker array 800 placed relative to a demonstration area 802.
  • the loudspeaker array shown in Fig. 8 which is a 360 ° array, includes four array sides 800a, 800b, 800c, and 800d. If the demonstration area 802 z.
  • the cinema screen is on the same side of the screening area 802 on which the sub-array 800c is arranged with respect to the conventions front / back or right / left. In this case, the observer, who is sitting at the so-called optimal point P in the demonstration area 802, would see to the front, ie to the screen.
  • Each loudspeaker array consists of a number of different individual loudspeakers 808, each of which is driven by its own loudspeaker signals provided by a wave-field synthesis module 810 via a data bus 812 shown only schematically in FIG.
  • the wave-field synthesis module is configured to use the information about e.g. B.
  • the wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.
  • the following embodiments of the present invention may in principle be performed for each point P in the demonstration area.
  • the optimum point can therefore be located anywhere in the demonstration area 802. It can also be several optimal points, z. B. on an optimal line, give. However, in order to obtain the best possible ratios for as many points as possible in the demonstration region 802, it is preferred to use the optimum point or the optimal line in the center or center of gravity of the wave field synthesis system which is passed through the loudspeaker sub-arrays 800a, 800b, 800c , 800d is defined to assume.
  • wave field synthesis module 800 A more detailed representation of the wave field synthesis module 800 is given below with reference to FIGS. 2 and 3 with reference to the wave field synthesis module 200 in FIG. 2 or to the arrangement shown in detail in FIG. 3.
  • Fig. 2 shows a wave field synthesis environment in which the present invention can be implemented.
  • a wave field synthesis module 200 comprising various inputs 202, 204, 206 and 208 as well as various outputs 210, 212, 214, 216.
  • the input 202 receives z.
  • the audio signal would be 1 z.
  • the audio signal 1 would then be the actual language of this actor, while the position information as a function of time represents the current position of the first actor in the recording setting.
  • the audio signal n would be the language of, for example, another actor moving in the same way or different from the first actor.
  • the current position of the other actor to whom the audio signal n is assigned is notified to the wave field synthesis module 200 by position information synchronized with the audio signal n.
  • various virtual sources exist depending on the recording setting, wherein the audio signal of each virtual source is supplied to the wave field synthesis module 200 as a separate audio track.
  • a wave field synthesis module feeds a plurality of loudspeakers LS1, LS2, LS3, LSm by outputting loudspeaker signals via the outputs 210 to 216 to the individual loudspeakers.
  • the wave field synthesis module 200 is informed via the input 206 of the positions of the individual speakers in a playback setting, such as a movie theater.
  • a playback setting such as a movie theater.
  • the Wellenfeldsynthesemodul 200 still other inputs can be communicated, such as information about the room acoustics, etc., to be able to simulate the actual prevailing during the recording setting room acoustics in a cinema.
  • the loudspeaker signal supplied to the loudspeaker LS1 via the output 210 will be a superposition of component signals of the virtual sources, in that the loudspeaker signal for the loudspeaker LS1 is a first component originating in the virtual source 1, a second one Component that originates from the virtual source 2 and an nth component that goes back to the virtual source n.
  • the individual component signals are superimposed linearly, that is to say added according to their calculation, in order to simulate the linear superposition at the ear of the listener, who in a real setting will hear a linear superimposition of the sound sources that he can perceive.
  • the wave field synthesis module 200 has a highly parallel construction in that, starting from the audio signal for each virtual source and based on the position information for the corresponding virtual source, first delay information V i and scale factors SF i calculated from the position information and the position of the currently considered one Speaker, z. B. the speaker with the ordinal number j, so LSj depend.
  • the calculation of a delay information V i and a scaling factor SF i on the basis of the position information of a virtual source and the position of the considered loudspeaker j occurs by known algorithms implemented in devices 300, 302, 304, 306.
  • the individual component signals are then summed by a summer 320 to determine the discrete value for the current time t A of the loudspeaker signal for the loudspeaker j, which is then used for the output (for example the output 214 if the loudspeaker j is the loudspeaker LS3). to which speaker can be supplied.
  • each value is calculated for each virtual source individually, based on a delay and scaling with a scaling factor at a current time, after which all the component signals for a loudspeaker are summed due to the different virtual sources. For example, if only one virtual source were present, the summer would be omitted and the signal applied to the output of the summer in FIG. For example, correspond to the signal output from the device 310 when the virtual source 1 is the only virtual source.
  • Fig. 1 is a block diagram of the level correction apparatus of the present invention in a wave field synthesis system set forth with reference to Fig. 8;
  • the wave field synthesis system includes the wave field synthesis module 810 and the speaker array 800 for sounding the presentation area 802, the wave field synthesis module 810 configured to receive source signal information associated with a virtual sound source and source position information associated with the virtual sound source, and component signals for the speakers based on the virtual speaker To calculate source.
  • the apparatus comprises first a means 100 for determining a correction value based on a target amplitude state in the demonstration area, wherein the target amplitude state depends on a position of the virtual source or a type of the virtual source, and wherein the correction value is further on a Actual amplitude state is based in the demonstration area, which depends on the component signals for the speakers due to the virtual source.
  • the device 100 has an input 102 for obtaining a position of the virtual source, when e.g. B. has a point source characteristic, or to obtain information about a type of source when the source z. B. is a source for generating plane waves.
  • the device 100 is designed to output on the output side a correction value 104, which is assigned to a device 106 for manipulating manipulating an audio signal associated with the virtual source (obtained via an input 108) or manipulating component signals for the speakers due to a virtual source (obtained via an input 110).
  • an engineered audio signal results at an output 112, which is then fed to the wave field synthesis module 200 instead of the original audio signal provided at the input 108 to generate the individual loudspeaker signals 210, 212, ..., 216.
  • manipulated component signals are obtained on the output side which still need to be summed loudspeaker wise (device 116), if appropriate manipulated component signals from other virtual sources provided via further inputs 118.
  • the device 116 again provides the loudspeaker signals 210, 212, ..., 216.
  • the alternatives of the upstream manipulation (output 112) or the embedded manipulation (output 114) shown in FIG. 1 are used alternatively to each other can. Depending on the embodiment, however, there may also be cases in which the weighting factor or correction value provided via the input 104 into the device 106 is split, as it were, so that an upstream manipulation and partly an embedded manipulation is partially performed.
  • the upstream manipulation would be to manipulate the audio signal of the virtual source fed to a device 310, 312, 314, and 316, respectively, prior to its injection.
  • the embedded manipulation would be that the component signals output by means 310, 312, 314, and 316, respectively, are manipulated prior to their summation to obtain actual loudspeaker signal.
  • FIGS. 6a and 6b show the embedded manipulation by the manipulation device 106, which is drawn in Fig. 6a as a multiplier.
  • a wave field synthesis device which consists for example of the blocks 300, 310 and 302, 312, and 304, 314 and 306 and 316 of FIG. 3, provides the component signals K 11 , K 12 , K 13 for the loudspeaker LS1 and the component signals K n1 , K n2 and K n3 for the loudspeaker LSn.
  • the first index of K ij indicates the speaker
  • the second index indicates the virtual source from which the component signal originates.
  • the virtual source 1 for example, is expressed in the component signal K l1 , ..., K nl .
  • a multiplication of the component signals belonging to the source 1 becomes , So the component signals whose index j points to the virtual source 1, take place with the correction factor F 1 .
  • the correction factors F 1 , F 2 and F 3 if all other geometric parameters equal are only dependent on the location of the corresponding virtual source. Would thus all three virtual sources z. For example, if point sources (that is, of the same kind) are at the same position, the correction factors for the sources would be identical. This law will be explained in more detail with reference to FIG. 4, since it is possible to use a lookup table with position information and respective associated correction factors, which must be created at some point, but which can be accessed quickly during operation, without having to In operation, a setpoint / actual value calculation and comparison operation must be performed constantly, which is also possible in principle.
  • Fig. 6b shows the inventive alternative to source manipulation.
  • the manipulation device is connected upstream of the wave field synthesis device and is operative to correct the audio signals of the sources with the corresponding correction factors to obtain manipulated audio signals for the virtual sources, which are then supplied to the wave field synthesis device to obtain the component signals, which are then output from the sources respective component summation means are accumulated to obtain the loudspeaker signals LS for the respective loudspeakers, such as the loudspeaker LS i .
  • the means 100 for determining the correction value is formed as a look-up table 400 which stores position correction factor value pairs.
  • the device 100 is preferably also provided with an interpolator 402 in order, on the one hand, to keep the table size of the lookup table 400 in a limited frame and, on the other hand, also for current positions of a virtual source, which are fed into the interpolator via an input 404, at least below Using one or more adjacent position correction factor value pairs stored in the look-up table, which are supplied to the interpolator 402 via an input 406 to produce an interpolated current correction factor at an output 408.
  • the interpolator 402 may also be omitted so that the means 100 for determining FIG.
  • the look-up table performs direct access to the look-up table using position information supplied at an input 410 and provides an appropriate correction factor at an output 412. If the current position information associated with the audio track of the virtual source does not correspond exactly to position information found in the look-up table, then the look-up table may still be assigned a simple round-up / round-down function to the nearest one stored in the table Support value instead of the current base value.
  • the means for determining may be configured to actually perform a setpoint-actual value comparison.
  • the device 100 of FIG. 1 includes a desired amplitude state determination device 500 and an actual amplitude state determination device 502 to provide a desired amplitude state 504 and an actual amplitude state 506, which are supplied to a comparison device 508
  • a quotient of the desired amplitude state 504 and the actual amplitude state 506 is calculated to produce a correction factor 510 that is applied to the device 106 for manipulating, which is shown in Fig. 1, is supplied for further use.
  • the correction value can also be stored in a lookup table.
  • the desired amplitude state calculation is designed to determine a target level at the optimum point for a virtual source configured at a specific position or in a specific manner.
  • the target amplitude state determination device 500 does not need any component signals, of course, since the target amplitude state is independent of the component signals.
  • Component signals are, however, as shown in FIG. 5, the actual amplitude determining means 502 which further depending on the embodiment also information about the speaker positions and information about speaker transfer functions and / or information on directional characteristics of the speakers can get to a To determine the actual situation as well as possible.
  • the actual amplitude state determination device 502 can also be embodied as an actual measurement system in order to determine an actual level situation at the optimum point for specific virtual sources at specific positions.
  • FIG. 7 a shows a diagram for determining a desired amplitude state at a predetermined point, which is designated "optimal point" in FIG. 7 a, and which lies in the demonstration area 802 of FIG. 8.
  • a virtual source 700 is shown as a point source, which generates a sound field with concentric wavefronts. Further, due to the audio signal for the virtual source 700, the level L v of the virtual source 700 is known.
  • the target amplitude state or, when the amplitude state is a level state, the target level at the point P in the demonstration area becomes easily obtained by the level L P at the point P is equal to the quotient of L v and a distance r has the point P to the virtual source 700.
  • the desired amplitude state can thus be easily determined by calculating the level L v of the virtual source and by calculating the distance r from the optimal point to the virtual source.
  • a coordinate transformation of the virtual coordinates into the coordinates of the presentation space or a coordinate transformation of the presentation space coordinates of the point P into the virtual coordinates must be performed, as is known to those skilled in the art of wave field synthesis.
  • the virtual source is an infinitely distant virtual source which generates plane waves at the point P
  • the distance between the point P and the source is not needed to determine the desired amplitude state, since this point goes to infinity anyway. In this case, only information about the type of source is needed.
  • the desired level at point P is then equal to the level associated with the planar wave field generated by the infinitely distant virtual source.
  • Fig. 7 is a diagram for explaining the actual amplitude state.
  • different speakers 808 drawn all of which are fed with its own speaker signal, the z. B. generated by the wave field synthesis module 810 of FIG. 8.
  • each speaker is modeled as a point source that outputs a concentric wave field.
  • the law of the concentric wave field is again that the level decreases according to 1 / r.
  • the signal generated by the speaker 808 directly on the speaker diaphragm or the level of this signal may be determined on the basis of the speaker characteristics and the component signal in the loudspeaker signal LSn, which goes back to the considered virtual source.
  • the distance between P and the loudspeaker diaphragm of the loudspeaker LSn can be calculated so that a level for the point P can be obtained on the basis of a component signal corresponding to the virtual source under consideration goes back and has been sent from the speaker LSn.
  • a corresponding procedure may also be performed for the other loudspeakers of the loudspeaker array, so that the point P results in a number of "sub-level values" representing a signal contribution of the considered virtual source which has passed from the individual loudspeakers to the listener at point P. , By summing these sub-level values, the entire actual amplitude state is then obtained at the point P which, as stated, can then be compared to the desired amplitude state by a correction value, which is preferably multiplicative, but in principle additive or subtractive could get.
  • the desired level for one point is thus calculated on the basis of certain source forms, that is to say the desired amplitude state. It is preferred that the optimal point or point in the demonstration area being viewed is usefully located in the middle of the wave field synthesis system. It should be noted at this point that an improvement is already achieved even if the point which was used to calculate the setpoint amplitude state does not coincide directly with the point which was used to determine the actual amplitude state.
  • the aim is to achieve the best possible artifact reduction for the largest possible number of points in the projection area, it is sufficient in principle for a desired amplitude state to be present for any point in the projection area is determined, and that an actual amplitude state is also determined for any point in the demonstration area, but it is preferred that the point to which the actual amplitude state is related, in a zone around the point for which the Desired amplitude state has been determined, this zone is preferably less than 2 meters for normal cinema applications. For best results, these points should essentially coincide.
  • the level practically generated by superposition is calculated at this point, which is called the optimum point in the demonstration area.
  • the levels of the individual speakers and / or sources are then corrected according to the invention with this factor.
  • FIG. 6b Attention is drawn in particular to FIG. 6b, in which the means 914 for summation is drawn in order to deliver the sum signal 916 on the output side, while on the input side the scaled object signals 912 are obtained which, as can be seen from FIG Scaling of the source signals of the sources 1, 2, 3 with the corresponding audio object scaling values or correction values F1, F2, F3 are obtained.
  • the version shown in Fig. 6b is preferred, in which already a scaling or manipulation or correction on audio object signal level and not on component level, as shown in Fig. 6a, is carried out.
  • the concept of component-level correction shown in FIG According to the concept of low-frequency channel generation according to the invention, at least the calculation of the audio object scaling values F1, F2,..., Fn must be performed only once.
  • the scaling of the subwoofer channel is thus similar to the scaling of the overall volume of all loudspeakers in the reference point of the wave field synthesis display system.
  • the inventive method is thus suitable for any number of subwoofer loudspeakers, which are all scaled so that they reach a reference level in the center of the wave field synthesis system.
  • the reference volume depends only on the position of the virtual sound source. With the known dependencies of distance of the sound object to the reference point and the associated attenuation of the volume, the single volume of the respective sound object for each subwoofer channel is preferably calculated. The delay of each source is calculated from the distance of the virtual source to the reference point of the volume scaling.
  • Each subwoofer speaker reflects the sum of all converted sound objects.
  • the method according to the invention for generating a bass channel can be implemented in hardware or in software.
  • the level correction method according to the invention can be implemented in hardware or in software.
  • the implementation may be on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which may interact with a programmable computer system such that the method is executed.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method for level correction when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

The invention relates to a method for producing a low-frequency channel for a low-frequency speaker which is disposed in a predetermined low-frequency speaker position. According to said method, a plurality of audioobjects is provided (900), and an object position and an object description is associated with every audioobject. A calculation (906) of an audioobject calibration value for every audioobject is carried out in accordance with the object description so that an actual amplitude status at a reference playback position at least approximates a desired amplitude status. Every object signal is scaled with an associated audioobject scaling value (910) and the scaled object signals are summed up (914). The sum signal thereby obtained is used to derive a low-frequency channel for the low-frequency speaker and the corresponding low-frequency speaker is provided (918). The scaling of the individual object signals of the audioobjects renders the method independent of an actual situation of a multichannel projection system with respect to the number and density of the speakers and with respect to the size of the actually present projection zone.

Description

Die vorliegende Erfindung bezieht sich auf das Erzeugen eines oder mehrerer Tieftonkanäle und insbesondere auf das Erzeugen von einem oder mehreren Tieftonkanälen in Zusammenhang mit einem Mehrkanal-Audiosystem, wie beispielsweise einem Wellenfeldsynthesesystem.The present invention relates to generating one or more low frequency channels, and more particularly to generating one or more low frequency channels associated with a multi-channel audio system, such as a wave field synthesis system.

Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektronik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.There is an increasing demand for new technologies and innovative products in the field of consumer electronics. It is an important prerequisite for the success of new multimedia systems to offer optimal functionalities and capabilities. This is achieved through the use of digital technologies and especially computer technology. Examples of these are the applications that offer an improved, realistic audiovisual impression. In previous audio systems, a significant weakness lies in the quality of the spatial sound reproduction of natural, but also of virtual environments.

Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.Methods for multi-channel speaker reproduction of audio signals have been known and standardized for many years. All the usual techniques have the disadvantage that both the installation site of the loudspeakers and the position of the listener are already impressed on the transmission format. If the speakers are arranged incorrectly with respect to the listener, the audio quality suffers significantly. An optimal sound is only possible in a small area of the playback room, the so-called sweet spot.

Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A.J.; de Vries, D.; Vogel, P.: Acoustic control by Wave-field Synthesis. JASA 93, 1993).A better natural spatial impression as well as a stronger envelope in the audio reproduction can be achieved with the help of a new technology. The basics of this Technology, known as Wave Field Synthesis (WFS), was researched at the TU Delft and first introduced in the late 1980s (Berkhout, AJ, de Vries, D .; Vogel, P .: Acoustic Control by Wave-field Synthesis, JASA 93, 1993).

Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden nächstes Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den Konsumerbereich auf den Markt kommen.Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has rarely been used in practice. Only the advances in the areas of microprocessor technology and audio coding allow today the use of this technology in concrete applications. The first professional products are expected next year. In a few years, the first wave field synthesis applications for the consumer sector will be launched.

Die Grundidee von WFS basiert auf der Anwendung des Huygens'schen Prinzips der Wellentheorie:The basic idea of WFS is based on the application of Huygens' principle of wave theory:

Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.Every point, which is detected by a wave, is the starting point of an elementary wave, which spreads in a spherical or circular manner.

Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray), jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. In einem Raum mit reflektierenden Wänden können auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront. In the simplest case, a single point source to be reproduced and a linear arrangement of the speakers, the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap. With multiple sound sources, the contribution to each speaker is calculated separately for each source and the resulting signals added together. In a room with reflective walls, reflections can also be reproduced as additional sources via the loudspeaker array. The effort in the calculation therefore depends heavily on the number of strongly depending on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.

Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.The advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible. In contrast to the known techniques, the direction and distance of sound sources are reproduced very accurately. To a limited extent, virtual sound sources can even be positioned between the real speaker array and the listener.

Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.Although wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.

Die Technik der Wellenfeldsynthese kann jedoch ebenfalls vorteilhaft eingesetzt werden, um eine visuelle Wahrnehmung um eine entsprechende räumliche Audiowahrnehmung zu ergänzen. Bisher stand bei der Produktion in virtuellen Studios die Vermittlung eines authentischen visuellen Eindrucks der virtuellen Szene im Vordergrund. Der zum Bild passende akustische Eindruck wird in der Regel durch manuelle Arbeitsschritte in der sogenannten Postproduktion nachträglich dem Audiosignal aufgeprägt oder als zu aufwendig und zeitintensiv in der Realisierung eingestuft und daher vernachlässigt. Dadurch kommt es üblicherweise zu einem Widerspruch der einzelnen Sinnesempfindungen, der dazu führt, daß der entworfene Raum, d. h. die entworfene Szene, als weniger authentisch empfunden wird.However, the technique of wave field synthesis can also be used advantageously to supplement a visual perception with a corresponding spatial audio perception. Until now, production in virtual studios focused on providing an authentic visual impression of the virtual scene. The matching to the image acoustic impression is usually impressed by manual operations in the so-called post-production subsequently the audio signal or classified as too complex and time-consuming in the realization and therefore neglected. This usually leads to a contradiction of the individual sense sensations, which leads to the space being designed, i. H. the designed scene is perceived as less authentic.

In der Mehrzahl der Fälle wird ein Konzept verfolgt, bei dem es darum geht, einen akustischen Gesamteindruck der visuell abgebildeten Szenerie zu bekommen. Dieses lässt sich gut mit dem aus der Bildgestaltung stammenden Begriff der "Totalen" umschreiben. Dieser "totale" Klangeindruck bleibt meist über alle Einstellungen in einer Szene konstant, obwohl sich der optische Blickwinkel auf die Dinge meist stark ändert. So werden optische Details durch entsprechende Einstellungen herausgehoben oder in den Hintergrund gestellt. Auch Gegenschüsse bei der filmischen Dialoggestaltung werden vom Ton nicht nachvollzogen.In the majority of cases, a concept is pursued which involves obtaining an overall acoustic impression of the visually depicted scenery. This works well with the term originating from the image design rewrite the "totals". This "total" sound impression usually remains constant over all the settings in a scene, although the optical view of things usually changes greatly. Thus, optical details are highlighted by appropriate settings or placed in the background. Also counter shots in the cinematic dialogue design are not reconstructed by the sound.

Daher besteht der Bedarf, den Zuschauer akustisch in eine audiovisuelle Szene einzubetten. Hierbei bildet die Leinwand oder Bildfläche die Blickrichtung und den Blickwinkel des Zuschauers. Dies bedeutet, daß der Ton dem Bild in der Form nachgeführt werden soll, daß er stets mit dem gesehenen Bild übereinstimmt. Dies wird insbesondere für virtuelle Studios noch wichtiger, da es typischerweise keine Korrelation zwischen dem Ton der Moderation beispielsweise und der Umgebung gibt, in der sich der Moderator gerade befindet. Um einen audiovisuellen Gesamteindruck der Szene zu bekommen, muß ein zum gerenderten Bild passender Raumeindruck simuliert werden. Eine wesentliche subjektive Eigenschaft bei einem solchen klanglichen Konzept ist in diesem Zusammenhang der Ort einer Schallquelle, wie ihn ein Betrachter beispielsweise einer Kinoleinwand empfindet.Therefore, there is a need to acoustically embed the viewer in an audiovisual scene. Here, the canvas or image surface forms the viewing direction and the perspective of the viewer. This means that the sound should track the image in the form that it always coincides with the viewed image. This becomes even more important for virtual studios, as there is typically no correlation between the moderation sound, for example, and the environment in which the presenter is currently located. In order to get an overall audiovisual impression of the scene, it is necessary to simulate a spatial impression matching the rendered picture. An essential subjective characteristic of such a sonic concept in this context is the location of a sound source, as perceived by a viewer, for example, a movie screen.

Im Audiobereich läßt sich also durch die Technik der Wellenfeldsynthese (WFS) ein guter räumlicher Klang für eine großen Hörerbereich erzielen. Wie es ausgeführt worden ist, basiert die Wellenfeldsynthese auf dem Prinzip von Huygens, nach welchem sich Wellenfronten durch Überlagerung von Elementarwellen formen und aufbauen lassen. Nach mathematisch exakter theoretischer Beschreibung müßten unendlich viele Quellen in unendlich kleinem Abstand für die Erzeugung der Elementarwellen genutzt werden. Praktisch werden jedoch endlich viele Lautsprecher in einem endlich kleinen Abstand zueinander genutzt. Jeder dieser Lautsprecher wird gemäß dem WFS-Prinzip mit einem Audiosignal von einer virtuellen Quelle, das ein bestimmtes Delay und einen bestimmten Pegel hat, angesteuert. Pegel und Delays sind in der Regel für alle Lautsprecher unterschiedlich.In the audio field, the technique of Wave Field Synthesis (WFS) can be used to achieve a good spatial sound for a large listener area. As has been pointed out, wave field synthesis is based on the principle of Huygens, according to which wavefronts can be formed and built up by superimposing elementary waves. After mathematically exact theoretical description, infinitely many sources at infinitely small distance would have to be used for the generation of the elementary waves. Practically, however, many speakers are finally used at a finite distance from each other. Each of these loudspeakers is used according to the WFS principle with an audio signal from a virtual source that has a specific delay and a has certain level, driven. Levels and delays are usually different for all speakers.

Wie es bereits ausgeführt worden ist, arbeitet das Wellenfeldsynthesesystem auf der Basis des Huygens-Prinzips und rekonstruiert eine gegebene Wellenform beispielsweise einer virtuellen Quelle, die in einem bestimmten Abstand zu einem Vorführbereich bzw. zu einem Hörer in dem Vorführbereich angeordnet ist durch eine Vielzahl von Einzelwellen. Der Wellenfeldsynthesealgorithmus erhält somit Informationen über die tatsächliche Position eines Einzellautsprechers aus dem Lautsprecherarray, um dann für diesen Einzellautsprecher ein Komponentensignal zu berechnen, das dieser Lautsprecher dann letztendlich abstrahlen muß, damit beim Zuhörer eine Überlagerung des Lautsprechersignals von dem einen Lautsprecher mit den Lautsprechersignalen der anderen aktiven Lautsprecher eine Rekonstruktion dahingehend durchführt, daß der Hörer den Eindruck hat, daß er nicht von vielen Einzellautsprechern "beschallt" wird, sondern lediglich von einem einzigen Lautsprecher an der Position der virtuellen Quelle.As already stated, the wave field synthesis system operates on the basis of the Huygens principle and reconstructs a given waveform of, for example, a virtual source located at a certain distance from a demonstration area or a listener in the show area by a plurality of single waves , The wave field synthesis algorithm thus obtains information about the actual position of a single loudspeaker from the loudspeaker array and then to compute a component signal for that single loudspeaker that this loudspeaker ultimately has to radiate to allow the listener to superpose the loudspeaker signal from one loudspeaker to the loudspeaker signals from the other active ones Speaker performs a reconstruction in that the listener has the impression that he is not "sonicated" by many individual speakers, but only from a single speaker at the position of the virtual source.

Für mehrere virtuelle Quellen in einem Wellenfeldsynthesesetting wird der Beitrag von jeder virtuellen Quelle für jeden Lautsprecher, also das Komponentensignal der ersten virtuellen Quelle für den ersten Lautsprecher, der zweiten virtuellen Quelle für den ersten Lautsprecher, etc. berechnet, um dann die Komponentensignale aufzuaddieren, um schließlich das tatsächliche Lautsprechersignal zu erhalten. Im Falle von beispielsweise drei virtuellen Quellen würde die Überlagerung der Lautsprechersignale aller aktiven Lautsprecher beim Hörer dazu führen, daß der Hörer nicht den Eindruck hat, daß er von einem großen Array von Lautsprechern beschallt wird, sondern daß der Schall, den er hört, lediglich von drei an speziellen Positionen positionierten Schallquellen kommt, die gleich den virtuellen Quellen sind.For multiple virtual sources in a wave-field synthesis setting, the contribution from each virtual source for each loudspeaker, that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc., is calculated to then add up the component signals finally get the actual speaker signal. In the case of, for example, three virtual sources, the superimposition of the loudspeaker signals of all active loudspeakers on the listener would result in the listener not feeling that he is being sonicated by a large array of loudspeakers, but that the sound he hears is merely from three sound sources positioned at specific positions, which are equal to the virtual sources.

Die Berechnung der Komponentensignale erfolgt in der Praxis meist dadurch, daß das einer virtuellen Quelle zugeordnete Audiosignal je nach Position der virtuellen Quelle und Position des Lautsprechers zu einem bestimmten Zeitpunkt mit einer Verzögerung und einem Skalierungsfaktor beaufschlagt wird, um ein verzögertes und/oder skaliertes Audiosignal der virtuellen Quelle zu erhalten, das das Lautsprechersignal unmittelbar darstellt, wenn nur eine virtuellen Quelle vorhanden ist, oder das nach Addition mit weiteren Komponentensignalen für den betrachteten Lautsprecher von anderen virtuellen Quellen dann zum Lautsprechersignal für den betrachteten Lautsprecher beiträgt.The calculation of the component signals is in practice usually characterized by the fact that the audio signal associated with a virtual source, depending on the position of the virtual source and position of the speaker at a given time with a delay and a scaling factor is applied to a delayed and / or scaled audio signal of the to obtain a virtual source that directly represents the loudspeaker signal when there is only one virtual source, or that adds to other component signals for the considered loudspeaker from other virtual sources then to the loudspeaker signal for the considered loudspeaker.

Typische Wellenfeldsynthesealgori thmen arbeiten unabhängig davon, wie viele Lautsprecher im Lautsprecherarray vorhanden sind. Die der Wellenfeldsynthese zugrundeliegende Theorie besteht darin, daß jedes beliebige Schallfeld durch eine unendlich hohe Anzahl von Einzellautsprechern exakt rekonstruiert werden kann, wobei die einzelnen Einzellautsprecher unendlich nahe zueinander angeordnet sind. In der Praxis kann jedoch weder die unendlich hohe Anzahl noch die unendlich nahe Anordnung realisiert werden. Statt dessen existiert eine begrenzte Anzahl von Lautsprechern, die zudem in bestimmten vorgegebenen Abständen zueinander angeordnet sind. Damit wird in realen Systemen immer nur eine Annäherung an die tatsächliche Wellenform erreicht, die stattfinden würde, wenn die virtuelle Quelle tatsächlich vorhanden wäre, also eine reale Quelle sein würde.Typical wave field synthesis algorithms work regardless of how many loudspeakers are present in the loudspeaker array. The underlying theory of wave field synthesis is that any sound field can be accurately reconstructed by an infinite number of individual speakers, with the individual individual speakers arranged infinitely close to each other. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there are a limited number of speakers, which are also arranged at certain predetermined distances from each other. Thus, in real systems, only an approximation to the actual waveform that would occur if the virtual source were actually present, would be a real source.

Ferner existieren verschiedene Szenarien, dahingehend, daß das Lautsprecherarray nur, wenn ein Kinosaal betrachtet wird, z. B. auf der Seite der Kinoleinwand angeordnet ist. In diesem Fall würde das Wellenfeldsynthesemodul Lautsprechersignale für diese Lautsprecher erzeugen, wobei die Lautsprechersignale für diese Lautsprecher normalerweise dieselben sein werden wie für entsprechende Lautsprecher in einem Lautsprecherarray, das sich nicht nur über die Seite eines Kinos beispielsweise erstreckt, an der die Leinwand angeordnet ist, sondern das auch links, rechts und hinter dem Zuhörerraum angeordnet ist. Dieses "360°"-Lautsprecherarray wird natürlich eine bessere Annäherung an ein exaktes Wellenfeld schaffen als lediglich ein einseitiges Array, beispielsweise vor den Zuschauern. Dennoch sind die Lautsprechersignale für die Lautsprecher, die sich vor den Zuschauern befinden, in beiden Fällen die gleichen. Dies bedeutet, daß ein Wellenfeldsynthesemodul typischerweise keine Rückkopplung dahingehend erhält, wie viele Lautsprecher vorhanden sind bzw. ob es sich um ein einseitiges oder mehrseitiges oder gar um ein 360°-Array handelt oder nicht. Anders ausgedrückt berechnet eine Wellenfeldsyntheseeinrichtung ein Lautsprechersignal für einen Lautsprecher aufgrund der Position des Lautsprechers und unabhängig davon, welche weiteren Lautsprecher noch vorhanden sind oder nicht vorhanden sind.Furthermore, various scenarios exist in that the loudspeaker array is only viewed when viewing a movie theater, e.g. B. is arranged on the side of the movie screen. In this case, the wave-field synthesis module would generate loudspeaker signals for these loudspeakers, the loudspeaker signals for these loudspeakers normally being the same as for corresponding loudspeakers in a loudspeaker array extending not only over the side of a cinema, for example, on which the screen is arranged, but also the left, right and behind the audience room is arranged. Of course, this "360 °" speaker array will provide a better approximation to an exact wave field than just a one-sided array, for example, in front of the viewers. However, the loudspeaker signals for the loudspeakers in front of the audience are the same in both cases. This means that a wave-field synthesis module typically does not receive feedback on how many speakers are present or whether it is a one-sided or multi-sided or even a 360 ° array or not. In other words, a wave field synthesizer calculates a loudspeaker signal for a loudspeaker based on the position of the loudspeaker and regardless of which other loudspeakers still exist or are absent.

Hierin besteht zwar eine wesentliche Stärke des Wellenfeldsynthesealgorithmus dahingehend, daß er optimal modular anpaßbar an verschiedene Gegebenheiten ist, indem einfach die Koordinaten der vorhandenen Lautsprecher in ganz unterschiedlichen Vorführräumen gegeben sind. Nachteilig ist jedoch, daß neben der unter Umständen hinnehmbaren schlechteren Rekonstruktion des aktuellen Wellenfeldes erhebliche Pegelartefakte entstehen. So ist für einen realen Eindruck nicht nur entscheidend, in welcher Richtung sich die virtuelle Quelle bezüglich des Zuhörers befindet, sondern auch wie laut der Zuhörer die virtuelle Quelle hört, also welcher Pegel beim Zuhörer aufgrund einer speziellen virtuellen Quelle "ankommt". Der bei einem Zuhörer ankommende Pegel, der auf eine betrachtete virtuelle Quelle bezogen ist, ergibt sich aus der Überlagerung der einzelnen Signale der Lautsprecher.Although this is an essential strength of the wave field synthesis algorithm to the extent that it is optimally modular adaptable to different circumstances by simply given the coordinates of the existing speakers in completely different screening rooms. The disadvantage, however, is that in addition to the tolerable under certain circumstances worse reconstruction of the current wave field significant level artifacts. Thus, for a real impression, it is not only crucial in which direction the virtual source is located with respect to the listener, but also how loudly the listener hears the virtual source, ie what level "arrives" at the listener due to a special virtual source. The incoming at a listener level, which is related to a considered virtual source, results from the superposition of the individual signals of the speakers.

Wird beispielsweise der Fall betrachtet, daß sich ein Lautsprecherarray von 50 Lautsprechern vor dem Zuhörer befindet, und daß das Audiosignal der virtuellen Quelle durch die Wellenfeldsyntheseeinrichtung in Komponentensignale für die 50 Lautsprecher abgebildet wird, derart, daß das Audiosignal mit unterschiedlicher Verzögerung und unterschiedlicher Skalierung von den 50 Lautsprechern gleichzeitig abgestrahlt wird, so empfindet ein Zuhörer der virtuellen Quelle einen Pegel der Quelle, der sich aus den Einzelpegeln der Komponentensignale der virtuellen Quelle in den einzelnen Lautsprechersignalen ergibt.For example, consider the case where there is a loudspeaker array of 50 loudspeakers in front of the listener, and that the virtual source audio signal by the wave field synthesizer into component signals for the 50 loudspeakers such that the audio signal is radiated from the 50 loudspeakers simultaneously with different delay and different scaling, a listener of the virtual source senses a level of the source resulting from the individual levels of the component signals of the virtual source individual loudspeaker signals.

Wird dieselbe Wellenfeldsyntheseeinrichtung nunmehr für ein reduziertes Array verwendet, bei dem sich beispielsweise nur 10 Lautsprecher vor dem Zuhörer befinden, so ist es ohne weiteres einsichtig, daß der Pegel des Signals von der virtuellen Quelle, der sich am Ohr des Zuhörers ergibt, abgenommen hat, da gewissermaßen 40 Komponentensignale der nunmehr fehlenden Lautsprecher "fehlen".If the same wavefield synthesizer is now used for a reduced array in which, for example, only 10 loudspeakers are in front of the listener, then it is readily apparent that the level of the signal from the virtual source resulting at the ear of the listener has decreased, since, so to speak, 40 component signals of the now missing speakers are "missing".

Es kann auch der alternative Fall auftreten, bei dem sich z. B. zunächst links und rechts des Zuhörers Lautsprecher befinden, die in einer bestimmten Konstellation gegenphasig angesteuert werden, so daß sich die Lautsprechersignale von zwei gegenüberliegenden Lautsprechern aufgrund einer bestimmten von der Wellenfeldsyntheseeinrichtung berechneten Verzögerung aufheben. Wird nunmehr in einem reduzierten System z. B. auf die Lautsprecher auf der einen Seite des Zuhörers verzichtet, so erscheint die virtuelle Quelle auf einmal wesentlich lauter als sie eigentlich sein dürfte.It may also occur the alternative case in which z. B. first left and right of the listener speakers are driven in a particular constellation in opposite phase, so that cancel the speaker signals from two opposite speakers due to a specific calculated by the wave field synthesis device delay. Is now in a reduced system z. For example, if you omit the speakers on one side of the listener, the virtual source suddenly seems much louder than it should be.

Während für statische Quellen zur Pegelkorrektur noch an konstante Faktoren gedacht werden könnte, ist diese Lösung dann nicht mehr tragbar, wenn die virtuellen Quellen nicht statisch sind, sondern sich bewegen. Dies ist gerade ein wesentliches Merkmal der Wellenfeldsynthese, daß sie auch und besonders sich bewegende virtuelle Quellen verarbeiten kann. Eine Korrektur mit einem konstanten Faktor würde hier zu kurz greifen, da der konstante Faktor zwar für eine Position stimmen würde, jedoch für eine andere Position der virtuellen Quelle Artefakt-steigernd wirken würde.While static sources for level correction could still be thought of as constant factors, this solution is no longer sustainable if the virtual sources are not static but move. This is just an essential feature of wave field synthesis, that it can handle and especially moving virtual sources. Correction with a constant factor would be too short here, since the constant factor would be correct for one position, but would be artifact enhancing for another position of the virtual source.

Wellenfeldsyntheseeinrichtungen sind ferner in der Lage, mehrere verschiedene Quellenarten nachzubilden. Eine prominente Quellenform ist die Punktquelle, bei der der Pegel proportional 1/r abnimmt, wobei r der Abstand zwischen einem Zuhörer und der Position der virtuellen Quelle ist. Eine andere Quellenform ist eine Quelle, die ebene Wellen aussendet. Hier bleibt der Pegel unabhängig von der Entfernung zum Hörer konstant, da ebene Wellen durch Punktquellen erzeugt werden können, die in einem unendlichen Abstand angeordnet sind.Wave field synthesis devices are also capable of replicating several different types of sources. A prominent source form is the point source, where the level decreases proportionally 1 / r, where r is the distance between a listener and the position of the virtual source. Another source form is a source that emits plane waves. Here, the level remains constant regardless of the distance to the listener, since plane waves can be generated by point sources, which are arranged at an infinite distance.

Gemäß der Wellenfeldsynthesetheorie stimmt bei zweidimensionalen Lautsprecheranordnungen die Pegeländerung abhängig von r bis auf einen vernachlässigbaren Fehler mit der natürlichen Pegeländerung überein. Je nach Position der Quelle können sich jedoch unterschiedliche, zum Teil erhebliche Fehler im absoluten Pegel ergeben, welche aus der Nutzung einer endlichen Anzahl von Lautsprechern statt der theoretisch geforderten unendlichen Anzahl von Lautsprechern resultiert, wie es vorstehend dargelegt worden ist.According to wave field synthesis theory, in two-dimensional loudspeaker arrangements, the level change agrees with the natural level change depending on r up to a negligible error. Depending on the position of the source, however, different, sometimes considerable errors in the absolute level may result, resulting from the use of a finite number of loudspeakers instead of the theoretically required infinite number of loudspeakers, as stated above.

Eine weitere Problematik, die bei Mehrkanalwiedergabesystemen und insbesondere bei Wellenfeldsynthesesystemen existiert, die nicht nur beispielsweise fünf oder sieben Lautsprecher verwenden, sondern eine wesentlich höhere Anzahl von Lautsprechern verwenden, besteht darin, daß die Lautsprecher aufgrund ihrer hohen Anzahl zu erheblichen Kosten führen können. Um die Kosten der Lautsprecher zu reduzieren, wird bei solchen bestehenden Fünf-Kanal-Systemen oder Sieben-Kanal-Systemen das sogenannte Subwooferprinzip eingesetzt. Das Subwooferprinzip dient bei Multikanalwiedergabesystemen zur Einsparung von teuren und großen Tieftonlautsprechern. Verwendet wird hierbei ein Tieftonkanal, der nur Musiksignale mir Frequenzen tiefer einer Grenzfrequenz von etwa 120 Hz enthält. Dieser Tieftonkanal steuert einen Tieftonlautsprecher mit großer Membranfläche an, womit hohe Schalldrücke gerade bei tiefen Frequenzen erzielt werden.A further problem that exists in multi-channel playback systems, and in particular in wave field synthesis systems, which not only use, for example, five or seven speakers, but use a much higher number of speakers, is that the speakers can lead to considerable costs due to their high number. To reduce the cost of the speakers, the so-called subwoofer principle is used in such existing five-channel systems or seven-channel systems. The subwoofer principle is used in multi-channel playback systems to save expensive and large woofers. A low-frequency channel is used, which contains only music signals with frequencies lower than a cut-off frequency of about 120 Hz. This low-frequency channel drives a woofer with a large diaphragm area, which achieves high sound pressure, especially at low frequencies.

Beim Subwooferprinzip wird ausgenutzt, daß das menschliche Gehör tieffrequente Töne in der Richtung sehr schwer lokalisieren also orten kann. In derzeitigen Systemen wird bereits bei der Tonmischung ein extra Tieftonkanal für eine spezielle Lautsprecheranordnung (räumliche Anordnung) gemischt. Beispiele für solche Multikanalwiedergabesysteme sind Dolby Digital, Sony SDDS und DTS. Bei diesen Multikanalformaten kann der Subwooferkanal unabhängig von der zu beschallenden Raumgröße gemischt werden, da sich die räumlichen Verhältnisse nur im maßstäblichen Sinne verändern. Die Lautsprecheranordnung bleibt maßstäblich die gleiche.The subwoofer principle makes use of the fact that the human ear can localize low-frequency sounds in the direction very difficult to locate. In current systems, an extra woofer channel is already mixed in the sound mixing for a special speaker arrangement (spatial arrangement). Examples of such multi-channel playback systems are Dolby Digital, Sony SDDS and DTS. In these multi-channel formats, the subwoofer channel can be mixed regardless of the room size to be sounded, since the spatial relationships change only to scale. The speaker assembly remains the same to scale.

Mit der Wellenfeldsynthese (engl. Wave Field Synthesis - WFS) kann ein großer Zuschauerbereich beschallt werden. Schallereignisse können in ihrer räumlichen Tiefe wiedergegeben werden. Zu diesem Zweck wird im Zuschauerbereich das komplette Schallfeld der einzelnen Schallereignisse reproduziert. Dies erfolgt durch eine große Anzahl von Lautsprechern. Für große Installationen werden etwa 500 oder mehr Lautsprechersysteme benötigt. Wollte man jedes einzelne Lautsprechersystem mit einem leistungsstarken Tieftonlautsprecher ausrüsten, würden sehr hohe Kosten entstehen.With wave field synthesis (WFS) a large audience area can be sonicated. Sound events can be reproduced in their spatial depth. For this purpose, the entire sound field of the individual sound events is reproduced in the audience area. This is done by a large number of speakers. For large installations, about 500 or more speaker systems are needed. If you wanted to equip each speaker system with a powerful woofer, very high costs would arise.

Es wurde erwähnt, daß für bestehende Multikanalformate eine spezielle Lautsprecheranordnung erforderlich ist, um einen speziellen Subwooferkanal zu mischen. Allerdings kann die Lautsprecheranordnung maßstäblich verändert werden, ohne die entsprechende Mischung ändern zu müssen. Das Verhältnis der Abstände der einzelnen Lautsprecher zueinander bleibt bestehen. Dies alles ist jedoch bei der WFS nicht möglich, da die Anzahl der Lautsprecherkanäle von dem Umfang der zu beschallenden Fläche des WFS-Wiedergabesystems abhängt. Deshalb können auch nicht die einzelnen Lautsprecherkanäle abgespeichert werden, was zudem recht speicheraufwendig wäre, wenn man Systeme mit 500 oder mehr Audiokanälen betrachtet. Deshalb werden nur die zu simulierenden, virtuellen Schallereignisse abgespeichert. Erst bei der Wiedergabe werden die einzelnen Lautsprecherkanäle mit Hilfe des WFS-Algorithmus berechnet.It has been mentioned that existing multi-channel formats require a special speaker arrangement to mix a particular subwoofer channel. However, the speaker assembly can be scaled without having to change the corresponding mixture. The ratio of the distances between the individual speakers to each other remains. However, all this is not possible with the WFS, as the number of speaker channels depends on the amount of WFS playback system surface to be sounded. Therefore, not the individual speaker channels can be stored, which would also be quite memory-consuming, if one considers systems with 500 or more audio channels. Therefore, only the virtual sound events to be simulated are stored. Only when playing The individual speaker channels are calculated using the WFS algorithm.

Zum einen hängt also die Anzahl der Lautsprecherkanäle mit dem Umfang der Zuschauerfläche zusammen. Zusätzlich wird die Anzahl der Lautsprecherkanäle dadurch bestimmt, wie dicht die Lautsprecher auf den Umfang der zu beschallenden Fläche verteilt sind. Von dieser Dichte hängt die Güte des WFS-Wiedergabesystems ab. Mit der Anzahl der Lautsprecherkanäle und der Dichte der Lautsprecher hängt die Lautstärke zusammen, da sich ja alle Lautsprecherkanäle zu einem Wellenfeld aufsummieren. Die Lautstärke eines WFS-Systems ist also nicht ohne weiteres vorbestimmt. Die Lautstärke des Subwooferkanals ist allerdings mit den bekannten Parametern des elektrischen Verstärkers und des Lautsprechers vorbestimmt. Es ist demnach nicht möglich, eine Mischung eines Subwooferkanals von einem WFS-System fehlerfrei auf ein WFS-System mit anderer Lautsprecherdichte und Lautsprecheranzahl zu übertragen. Die Lautstärken von dem Tieftonsystem einerseits und von dem Mittel-/Hochtonsystem andererseits würden nicht übereinstimmen.On the one hand, therefore, the number of speaker channels is related to the size of the audience area. In addition, the number of loudspeaker channels is determined by how densely the loudspeakers are distributed over the circumference of the surface to be sounded. The quality of the WFS playback system depends on this density. The volume is related to the number of loudspeaker channels and the density of the loudspeakers, since all loudspeaker channels add up to a wave field. The volume of a WFS system is therefore not readily predetermined. The volume of the subwoofer channel, however, is predetermined with the known parameters of the electric amplifier and the loudspeaker. It is therefore not possible to transfer a mixture of a subwoofer channel from a WFS system without error to a WFS system with different speaker density and number of speakers. The volume levels of the low frequency system on the one hand and the mid / high frequency system on the other hand would not match.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein Konzept zum Erzeugen eines Tieftonkanals in einem Multikanalwiedergabesystem zu schaffen, das eine Reduzierung von Pegel-Artefakten ermöglicht.The object of the present invention is to provide a concept for generating a woofer channel in a multi-channel reproducing system which enables reduction of level artifacts.

Diese Aufgabe wird durch eine Vorrichtung zum Erzeugen eines Tieftonkanals nach Patentanspruch 1 oder ein Verfahren zum Erzeugen eines Tieftonkanals nach Patentanspruch 25 oder durch ein Computerprogramm nach Patentanspruch 26 gelöst.This object is achieved by a device for generating a woofer channel according to claim 1 or a method for generating a woofer channel according to claim 25 or by a computer program according to claim 26.

Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß der Tieftonkanal für einen Tieftonlautsprecher bzw. daß mehrere Tieftonkanäle für mehrere Tieftonlautsprecher in einem Multikanalsystem nicht bereits in einem Tonmischvorgang erzeugt wird, der unabhängig von einem tatsächlichen Wiedergaberaum stattfindet, sondern daß auf den tatsächlichen Wiedergaberaum bezug genommen wird, indem die vorbestimmte Position des Tieftonlautsprechers einerseits sowie Eigenschaften von Audioobjekten, die typischerweise virtuelle Quellen darstellen, andererseits ebenfalls berücksichtigt werden, um den Tieftonkanal zu erzeugen. Insbesondere wird von Audioobjekten ausgegangen, wobei einem Audioobjekt eine Objektbeschreibung einerseits sowie ein Objektsignal andererseits zugeordnet ist. Abhängig von der Objektbeschreibung wird für jedes Audioobjektsignal ein Audioobjektskalierungswert berechnet, der dann dazu verwendet wird, um jedes Objektsignal zu skalieren, um dann die skalierten Objektsignale aufzusummieren, um ein Summensignal zu erhalten. Aus dem Summensignal wird dann der Tieftonkanal abgeleitet, der dem Tieftonlautsprecher zugeführt wird.The present invention is based on the finding that the woofer channel for a woofer or that several woof channels for several woofers in a multi-channel system is not already generated in a sound mixing process, which is independent of an actual Playback room takes place, but that reference is made to the actual playback room by the predetermined position of the woofer on the one hand and properties of audio objects, which are typically virtual sources, on the other hand also taken into account to produce the bass channel. In particular, audio objects are assumed, wherein an audio object is assigned an object description on the one hand and an object signal on the other hand. Depending on the object description, an audio object scaling value is calculated for each audio object signal, which is then used to scale each object signal, and then summed up the scaled object signals to obtain a summed signal. From the sum signal then the bass channel is derived, which is supplied to the woofer.

Für den Fall von Quellen, die ebene Wellen ausstrahlen, bei denen somit eine Position im Unendlichen angenommen wird, spielt die virtuelle Position der Quelle einerseits sowie eine Referenzwiedergabeposition andererseits, für die eine Referenzlautstärke gefordert wird, keine Rolle. Dies ist jedoch nicht der Fall bei üblichen punktförmig angenommenen Quellen, wie sie beispielsweise in einem Filmsetting dann auftreten, wenn Dialoge etc. stattfinden. In diesem Fall wird eine Skalierung des Audioobjektsignals, das von einer virtuellen Quelle stammt, die an einer virtuellen Position angeordnet ist, dahingehend vorgenommen, daß eine tatsächliche Lautstärke bzw. ein Ist-Amplitudenzustand aufgrund dieser virtuellen Quelle an der Referenzwiedergabeposition einem Soll-Amplitudenzustand entspricht. Der Soll-Amplitudenzustand hängt von der Lautstärke des Audioobjektsignals, das der virtuellen Quelle zugeordnet ist, und dem Abstand zwischen der virtuellen Position und der Referenzwiedergabeposition ab. Diese Berechnung von Audioobjektskalierungswerten wird für sämtliche virtuellen Quellen vorgenommen, um dann die Audioobjektsignale jeder virtuellen Quelle mit dem entsprechenden Skalierungswert zu skalieren.In the case of sources that emit plane waves, thus assuming a position at infinity, the virtual position of the source on the one hand and a reference reproduction position on the other, for which a reference volume is required, are irrelevant. However, this is not the case with conventional punctiform assumed sources, such as occur in a film setting when dialogues, etc. take place. In this case, scaling of the audio object signal originating from a virtual source located at a virtual position is made such that an actual volume or an actual amplitude state due to this virtual source at the reference reproduction position corresponds to a target amplitude state. The target amplitude state depends on the volume of the audio object signal associated with the virtual source and the distance between the virtual position and the reference playback position. This calculation of audio object scaling values is done for all virtual sources to then scale the audio object signals of each virtual source with the corresponding scaling value.

Die skalierten Audioobjektsignale werden dann aufsummiert, um ein Summensignal zu erhalten. Aus diesem Summensignal wird dann wieder in dem Fall, bei dem nur ein einziger Tieftonlautsprecher vorhanden ist, der Tieftonkanal abgeleitet. Dies kann durch einfache Tiefpaßfilterung erfolgen.The scaled audio object signals are then summed to obtain a summed signal. From this summation signal is then derived again in the case in which only a single woofer, the bass channel. This can be done by simple low-pass filtering.

An dieser Stelle sei darauf hingewiesen, daß die Tiefpaßfilterung bereits mit den noch unskalierten Audioobjektsignalen durchgeführt werden kann, so daß lediglich bereits Tiefpaßsignale weiter verarbeitet werden, so daß das Summensignal bereits der Tieftonkanal selbst ist.It should be noted that the low-pass filtering can already be performed with the still unscaled audio object signals, so that only low-pass signals are processed further, so that the sum signal is already the low-frequency channel itself.

Erfindungsgemäß wird es jedoch bevorzugt, die Extraktion des Tieftonkanals erst nach der Aufsummierung der skalierten Objektsignale durchzuführen, um eine möglichst gute Annäherung der Lautstärke der Tieftonsignale im Vorführraum einerseits und der Lautstärke der Mittel- und Hochtonsignale im Vorführraum andererseits zu erhalten.According to the invention, however, it is preferred to carry out the extraction of the bass channel only after the summation of the scaled object signals in order to obtain the best possible approximation of the volume of the bass signals in the screening room on the one hand and the volume of the mid and high signals in the screening room on the other hand.

Erfindungsgemäß wird somit ein Subwooferkanal nicht schon beim Tonmischvorgang aus den virtuellen Quellen, also dem Klangmaterial für die Wellenfeldsynthese gemischt. Die Mischung erfolgt statt dessen automatisch bei der Wiedergabe im Wellenfeldsynthesesystem unabhängig von der Größe des Systems und der Anzahl von Lautsprechern. Die Lautstärke des Subwoofersignals hängt dabei von der Anzahl und vom Umfang der umsäumten Fläche des Wellenfeldsynthesesystems ab. Selbst vorgeschriebene Lautsprecheranordnungen müssen nicht mehr eingehalten werden, da Lautsprecherposition und Lautsprecheranzahl in die Erzeugung des Tieftonkanals mit einbezogen werden.According to the invention, therefore, a subwoofer channel is not already mixed in the sound mixing process from the virtual sources, ie the sound material for the wave field synthesis. Instead, the mix automatically occurs when playing in the wave-field synthesis system, regardless of the size of the system and the number of speakers. The volume of the subwoofer signal depends on the number and on the circumference of the fringed area of the wave field synthesis system. Even prescribed loudspeaker arrangements no longer have to be complied with, since loudspeaker position and loudspeaker number are included in the generation of the bass channel.

Die vorliegende Erfindung ist nicht nur auf Wellenfeldsynthesesysteme begrenzt, sondern kann allgemein auf beliebige Multikanalwiedergabesysteme angewendet werden, bei denen die Mischung und Erzeugung, also das Rendering, der Wiedergabekanäle, also der Lautsprecherkanäle selbst, erst bei der tatsächlichen Wiedergabe erfolgt. Systeme dieser Art sind beispielsweise 5.1-Systeme, 7.1-Systeme etc.The present invention is not limited to wave field synthesis systems, but can be generally applied to any multichannel reproduction system in which the mixing and generation, that is, the rendering, of the reproduction channels, that is, the speaker channels themselves, only at the actual playback takes place. Systems of this type are, for example, 5.1 systems, 7.1 systems, etc.

Vorzugsweise wird die erfindungsgemäße Tieftonkanalerzeugung mit einer Pegelartefaktreduzierung kombiniert, um Pegelkorrekturen in einem Wellenfeldsynthesesystem nicht nur für Tieftonkanäle durchzuführen, sondern für sämtliche Lautsprecherkanäle, um unabhängig von Anzahl und Position der eingesetzten Lautsprecher bezüglich des verwendeten Wellenfeldsynthesealgorithmus zu sein.Preferably, the inventive low frequency channel generation is combined with a level artifact reduction to perform level corrections in a wave field synthesis system not only for low frequency channels but for all loudspeaker channels to be independent of the number and position of the speakers used with respect to the wave field synthesis algorithm used.

Bei bevorzugten Ausführungsbeispielen der vorliegenden Erfindung, bei denen lediglich ein einziger Tieftonkanal und damit ein einziger Tieftonlautsprecher vorgesehen ist, wird der Tieftonlautsprecher nicht in einer Referenzwiedergabeposition angeordnet sein, für die eine optimale Pegelkorrektur durchgeführt wird. In diesem Fall wird das Summensignal erfindungsgemäß unter Berücksichtigung der Position des Tieftonlautsprechers unter Verwendung eines zu berechnenden Lautsprecherskalierungswerts skaliert. Diese Skalierung wird vorzugsweise lediglich eine Amplitudenskalierung und keine Phasenskalierung sein, wobei hier der Tatsache Rechnung getragen wird, daß das Ohr bei den im Tieftonkanal vorhandenen tiefen Frequenzen keine gute Lokalisierung hat, sondern lediglich eine genaue Amplituden-/Lautstärkewahrnehmung zeigt. Alternativ oder zusätzlich kann als Skalierung eine Phasenskalierung eingesetzt werden, falls eine solche in einem Anwendungsszenario erwünscht ist.In preferred embodiments of the present invention in which only a single woofer channel and thus a single woofer is provided, the woofer will not be located in a reference display position for which optimum level correction is performed. In this case, according to the present invention, the sum signal is scaled by taking into account the position of the woofer using a speaker scale value to be calculated. This scaling will preferably be only amplitude scaling and no phase scaling, taking into account the fact that the ear does not have good localization at the low frequencies present in the low frequency channel, but only shows accurate amplitude / volume perception. Alternatively or additionally, a scaling can be used as scaling, if such is desired in an application scenario.

Für den Fall der Positionierung mehrerer Tieftonlautsprecher wird für jeden einzelnen Tieftonlautsprecher ein eigener Tieftonkanal erzeugt. Die Tieftonkanäle der einzelnen Tieftonlautsprecher unterscheiden sich vorzugsweise lediglich in ihrer Amplitude, nicht jedoch in dem Signal an sich. Alle Tieftonlautsprecher senden somit dasselbe Summensignal ab, jedoch mit unterschiedlicher Amplitudenskalierung, wobei die Amplitudenskalierung für einen einzelnen Tieftonlautsprecher abhängig vom Abstand des einzelnen Tieftonlautsprechers zum Referenzwiedergabepunkt erfolgt. Darüber hinaus wird erfindungsgemäß sichergestellt, daß die Gesamtlautstärke aller überlagerten Tieftonkanäle an der Referenzwiedergabeposition gleich der Lautstärke des Summensignals ist oder der Lautsprecher des Summensignals wenigstens innerhalb eines vorbestimmten Toleranzbereichs entspricht. Hierzu wird für jeden einzelnen Tieftonkanal ein eigener Lautsprecherskalierungswert berechnet, mit dem dann das Summensignal entsprechend skaliert wird, um den einzelnen Tieftonkanal zu erhalten.In the case of positioning multiple woofers, a separate woofer channel is created for each woofer. The bass channels of the individual woofers preferably differ only in their amplitude, but not in the signal itself. All woofers thus emit the same sum signal, but with different amplitude scaling, the amplitude scaling for a single one Subwoofer depending on the distance of the individual woofer to the reference reproduction point is done. In addition, the invention ensures that the overall volume of all superimposed low-frequency channels at the reference playback position is equal to the volume of the sum signal or the loudspeaker of the sum signal corresponds at least within a predetermined tolerance range. For this purpose, a separate loudspeaker scaling value is calculated for each individual low-frequency channel, with which the summation signal is then scaled accordingly in order to obtain the individual low-frequency channel.

Die Verwendung eines Subwooferkanals ist insbesondere dahingehend vorteilhaft, daß er zu einer deutlichen Preisreduktion führt, da die einzelnen Lautsprecher z. B. eines Wellenfeldsynthesesystems wesentlich preisgünstiger aufgebaut werden können, da sie keine Tieftoneigenschaften haben müssen. Dagegen genügt nur einer oder einige wenige, wie beispielsweise drei bis vier, Subwooferlautsprecher, um die sehr tiefen Frequenzen mit hohem Schalldruck durch eine entsprechend große Membranfläche zu realisieren.The use of a subwoofer channel is particularly advantageous in that it leads to a significant price reduction, since the individual speakers z. B. a Wellenfeldsynthesesystems can be constructed much cheaper, since they must have no low-frequency characteristics. In contrast, only one or a few, such as three to four, Subwooferlautsprecher enough to realize the very low frequencies with high sound pressure through a correspondingly large membrane area.

Die vorliegende Erfindung ist ferner dahingehend vorteilhaft, daß der eine bzw. die mehreren Tieftonkanäle für beliebige Lautsprecheraufstellungen und Multikanalformate automatisch erzeugt werden kann, wobei dies insbesondere im Rahmen eines Wellenfeldsynthesesystems nur einen geringen Mehraufwand erfordert, da das Wellenfeldsynthesesystem ohnehin eine Pegelkorrektur durchführt.The present invention is further advantageous in that the one or more low-frequency channels for any speaker assemblies and multi-channel formats can be generated automatically, which requires only a small overhead, especially in the context of a wave field synthesis system, since the wave field synthesis system anyway performs a level correction.

Bezüglich der nötigen Anzahl von Tieftonlautsprechern sowie der optimalen Positionierung von einem oder mehreren Tieftonlautsprechern wird auf die Fachliteratur verwiesen, von der insbesondere Welti, Todd, "How Many Subwoofers are Enough", 112th AES Conv. Paper 5602, Mai 2002, München, Deutschland, Martens, "The impact of decorrelated low-frequency reproduction on auditory spatial imagery: Are two subwoofers better than one?", 16th AES Conf. Paper, April 1999, Rovaniemi, Finnland, genannt werden.With respect to the necessary number of woofers as well as the optimal positioning of one or more low-frequency loudspeakers, reference is made to the technical literature, in particular from the Welti, Todd, "How Many subwoofer are Enough", 112 th AES Conv. Paper 5602, May 2002, Munich, Germany, Martens, "The impact of decorrelated low-frequency reproduction on auditory spatial imagery: are two subwoofers better than one? ", 16 th AES Conf. Paper, April 1999, Rovaniemi, Finland.

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung, bei dem lediglich ein einziger Tieftonlautsprecher eingesetzt wird, wird zunächst die Einzellautstärke und vorzugsweise auch Verzögerung jeder virtuellen Quelle, also jedes Klangobjekt bzw. Audioobjekt, bezogen auf die Referenzwiedergabeposition berechnet. Hierauf wird das Audiosignal jeder virtuellen Quelle entsprechend skaliert und verzögert, um dann alle virtuellen Quellen aufzusummieren. Hierauf wird die Gesamtlautstärke und Verzögerung des Subwoofers in Abhängigkeit von dessen Abstand zum Bezugspunkt berechnet, falls der Subwoofer nicht bereits im Bezugspunkt angeordnet ist.In a preferred embodiment of the present invention, in which only a single woofer is used, first the single volume and preferably also the delay of each virtual source, ie each sound object or audio object, is calculated relative to the reference playback position. Thereafter, the audio signal of each virtual source is scaled and delayed accordingly, and then summed up all the virtual sources. This will calculate the overall volume and delay of the subwoofer, depending on its distance from the reference point, if the subwoofer is not already in the reference point.

Im Falle von mehreren Subwoofern wird es bevorzugt, zunächst die Einzellautstärken aller Subwoofer in Abhängigkeit von ihren Abständen zum Bezugspunkt zu bestimmen. Hierbei wird es bevorzugt, als Randbedingung einzuhalten, daß die Summe aller Subwooferkanäle gleich der der Referenzlautstärke an der Referenzwiedergabeposition ist, die vorzugsweise dem Mittelpunkt des Wellenfeldsynthesesystems entspricht. Es werden also entsprechende Skalierungsfaktoren pro Subwoofer berechnet, wobei jedoch zunächst wieder Einzellautstärke und Verzögerung jeder virtuellen Quelle bezogen auf den Referenzpunkt bestimmt werden. Dann wird wieder jede virtuelle Quelle entsprechend skaliert und optional verzögert, um dann alle virtuellen Quellen zu dem Summensignal aufzusummieren, das dann mit den einzelnen Skalierungsfaktoren für jeden Subwooferkanal skaliert wird, um die einzelnen Tieftonkanäle für die verschiedenen Tieftonlautsprecher zu erhalten.In the case of several subwoofers, it is preferred to first determine the individual volumes of all subwoofers depending on their distances to the reference point. In this case, it is preferable to adhere to the boundary condition that the sum of all subwoofer channels is equal to the reference volume at the reference reproduction position, which preferably corresponds to the midpoint of the wave field synthesis system. Thus, corresponding scaling factors are calculated per subwoofer, but initially again individual volume and delay of each virtual source relative to the reference point are determined. Then each virtual source is again scaled accordingly and optionally delayed, then summing all the virtual sources to the sum signal, which is then scaled by the individual scaling factors for each subwoofer channel to obtain the individual bass channels for the different woofers.

Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:

Fig. 1
ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem;
Fig. 2
ein Prinzipschaltbild einer Wellenfeldsyntheseumgebung, wie sie für die vorliegende Erfindung einsetzbar ist;
Fig. 3
eine detailliertere Darstellung des in Fig. 2 gezeigten Wellenfeldsynthesemoduls;
Fig. 4
ein Blockschaltbild einer erfindungsgemäßen Einrichtung zum Ermitteln des Korrekturwerts gemäß einem Ausführungsbeispiel mit Nachschlagtabelle und gegebenenfalls Interpolationseinrichtung;
Fig. 5
ein weiteres Ausführungsbeispiel der Einrichtung zum Ermitteln von Fig. 1 mit Sollwert/Istwert-Ermittlung und anschließendem Vergleich;
Fig. 6a
ein Blockschaltbild eines Wellenfeldsynthesemoduls mit eingebetteter Manipulationseinrichtung zur Manipulation der Komponentensignale;
Fig. 6b
ein Blockschaltbild eines weiteren Ausführungsbeispiels der vorliegenden Erfindung mit einer vorgeschalteten Manipulationseinrichtung;
Fig. 7a
eine Skizze zur Erläuterung des SollAmplitudenzustands an einem Optimal-Punkt in einem Vorführbereich;
Fig. 7b
eine Skizze zur Erläuterung des Ist-Amplitudenzustands an einem Optimal-Punkt in dem Vorführbereich;
Fig. 8
ein prinzipielles Blockschaltbild eines Wellenfeldsynthesesystems mit Wellenfeldsynthesemodul und Lautsprecherarray in einem Vorführbereich;
Fig. 9
ein Blockschaltbild einer erfindungsgemäßen Vorrichtung zum Erzeugen eines Tieftonkanals;
Fig. 10
eine bevorzugte Ausgestaltung der Einrichtung zum Bereitstellen des Tieftonkanals für mehrere Tieftonlautsprecher; und
Fig. 11
eine schematische Darstellung eines Vorführbereichs mit einer Mehrzahl von Einzellautsprechern sowie zwei Subwoofern.
Preferred embodiments of the present invention will be explained below in detail with reference to the accompanying drawings. Show it:
Fig. 1
a block diagram of the inventive device for level correction in a wave field synthesis system;
Fig. 2
a schematic diagram of a wave field synthesis environment, as it is applicable for the present invention;
Fig. 3
a more detailed representation of the wave field synthesis module shown in Figure 2;
Fig. 4
a block diagram of a device according to the invention for determining the correction value according to an embodiment with look-up table and optionally interpolation device;
Fig. 5
a further embodiment of the device for determining Figure 1 with setpoint / actual value determination and subsequent comparison.
Fig. 6a
a block diagram of a wave field synthesis module with embedded manipulation device for manipulating the component signals;
Fig. 6b
a block diagram of another embodiment of the present invention with an upstream manipulation device;
Fig. 7a
a sketch for explaining the target amplitude state at an optimum point in a demonstration area;
Fig. 7b
a sketch for explaining the actual amplitude state at an optimum point in the demonstration area;
Fig. 8
a schematic block diagram of a wave field synthesis system with wave field synthesis module and speaker array in a demonstration area;
Fig. 9
a block diagram of an apparatus according to the invention for generating a bass channel;
Fig. 10
a preferred embodiment of the device for providing the woofer channel for multiple woofers; and
Fig. 11
a schematic representation of a demonstration area with a plurality of individual speakers and two subwoofers.

Wie es bereits ausgeführt worden ist, werden durch den Wellenfeldsynthesealgorithmus für jeden Lautsprecherkanal und jede virtuelle Quelle sowohl Lautstärke als auch Verzögerung berechnet. Dabei muß die Position des einzelnen Lautsprechers bekannt sein. Hierzu wird es erfindungsgemäß bevorzugt, die Gesamtlautstärke aller Lautsprecher in einem Bezugspunkt des Wellenfeldsynthesewiedergabesystems auf eine absolute Referenzlautstärke, also den Soll-Amplitudenzustand, zu skalieren. Diese Skalierung der einzelnen Audioobjektsignale für die einzelnen Wellenfeldsynthesesystemlautsprecher, also die Einzellautsprecher des Arrays, basiert auf der Erkenntnis, daß die Unzulänglichkeiten eines Wellenfeldsynthesesystems mit einer (praktisch realisierbaren) endlichen Anzahl von Lautsprechern dahingehend zumindest abgemildert werden können, wenn eine PegelKorrektur durchgeführt wird, dahingehend, daß entweder das einer virtuellen Quelle zugeordnete Audiosignal vor der Wellenfeldsynthese oder die Komponentensignale für verschiedene Lautsprecher, die auf eine virtuelle Quelle zurückgehen, nach der Wellenfeldsynthese unter Verwendung eines Korrekturwerts manipuliert werden, um eine Abweichung zwischen einem Soll-Amplitudenzustand in einem Vorführbereich und einem Ist-Amplitudenzustand in dem Vorführbereich zu reduzieren. Der Soll-Amplitudenzustand ergibt sich dadurch, daß abhängig von der Position der virtuellen Quelle, und z. B. abhängig von einem Abstand eines Zuhörers bzw. eines optimalen Punkts in einem Vorführbereich zu der virtuellen Quelle und gegebenenfalls unter Berücksichtigung der Wellenart ein Soll-Pegel als Beispiel für einen Soll-Amplitudenzustand ermittelt wird, und daß ferner ein Ist-Pegel als Beispiel für einen Ist-Amplitudenzustand beim Hörer ermittelt wird. Während der Soll-Amplitudenzustand unabhängig von der tatsächlichen Gruppierung und Art der Einzellautsprecher lediglich auf der Basis der virtuellen Quelle bzw. deren Position ermittelt wird, wird die Ist-Situation unter Berücksichtigung der Positionierung, Art und Ansteuerung der Einzellautsprecher des Lautsprecherarrays berechnet.As already stated, the wave field synthesis algorithm calculates both volume and delay for each loudspeaker channel and each virtual source. The position of the individual loudspeaker must be known. For this purpose, it is preferred according to the invention to scale the overall volume of all loudspeakers in a reference point of the wave field synthesis reproduction system to an absolute reference volume, that is to say the desired amplitude state. This scaling of the individual audio object signals for the individual wave field synthesis system loudspeakers, ie the individual loudspeakers of the array, is based on the finding that the shortcomings of a wave field synthesis system with a (practically realizable) finite number of loudspeakers can at least be mitigated if a level correction is carried out, in that either the pre-wave field synthesis audio signal or the component signals for different loudspeakers originating from a virtual source are manipulated after wavefield synthesis using a correction value to detect a deviation between a desired amplitude state in a demonstration area and an actual area. Amplitude state in the demonstration area to reduce. The desired amplitude state results from the fact that depending on the position of the virtual source, and z. B. depending on a distance of a listener or an optimal point in a demonstration area to the virtual source and optionally taking into account the wave a target level is determined as an example of a desired amplitude state, and further that an actual level as an example an actual amplitude state is determined at the listener. While the target amplitude state is determined independently of the actual grouping and type of individual loudspeakers only on the basis of the virtual source or its position, the actual situation is calculated taking into account the positioning, type and control of the individual loudspeakers of the loudspeaker array.

So kann der Schallpegel am Ohr des Hörers im optimalen Punkt innerhalb des Vorführbereichs aufgrund eines Komponentensignale der virtuellen Quelle, das über einen Einzellautsprecher abgestrahlt wird, ermittelt werden. Entsprechend kann für die anderen Komponentensignale, die auf die virtuelle Quelle zurückgehen und über andere Lautsprecher abgestrahlt werden, ebenfalls der Pegel am Ohr des Hörers im optimalen Punkt innerhalb des Vorführbereichs ermittelt werden, um dann durch Zusammenfassung dieser Pegel den tatsächlichen Ist-Pegel am Ohr des Hörers zu erhalten. Hierzu kann die Übertragungsfunktion jedes einzelnen Lautsprechers sowie der Pegel des Signals an dem Lautsprecher und der Abstand des Zuhörers im betrachteten Punkt innerhalb des Vorführbereichs zu dem einzelnen Lautsprecher berücksichtigt werden. Für einfachere Ausführungen kann die Sendecharakteristik des Lautsprechers dahingehend angenommen werden, daß er als ideale Punktquelle arbeitet. Für aufwendigere Implementierungen kann jedoch auch die Richtcharakteristik des einzelnen Lautsprechers berücksichtigt werden.Thus, the sound level at the ear of the listener can be determined at the optimum point within the performance area due to component signals of the virtual source radiated through a single speaker. Correspondingly, for the other component signals going back to the virtual source and being emitted via other loudspeakers, the level at the ear of the listener can also be determined at the optimum point within the presentation area, and then, by combining these levels, the actual actual level at the ear of the listener To receive the listener. For this purpose, the transfer function of each individual loudspeaker as well as the level of the signal on the loudspeaker and the distance of the listener in the considered point within the presentation area to the individual loudspeaker can be taken into account. For simpler embodiments, the transmission characteristic of the loudspeaker can be assumed to work as an ideal point source. For more complex implementations, however, the directional characteristic of the individual loudspeakers can also be taken into account.

Ein wesentlicher Vorteil dieses Konzepts besteht darin, daß bei einem Ausführungsbeispiel, bei dem Schallpegel betrachtet werden, lediglich multiplikative Skalierungen auftreten, dahingehend, daß für einen Quotient zwischen dem Soll-Pegel und dem Ist-Pegel, der den Korrekturwert ergibt, nicht der absolute Pegel beim Zuhörer oder der absolute Pegel der virtuellen Quelle erforderlich ist. Statt dessen hängt der Korrekturfaktor lediglich von der Position der virtuellen Quelle (und damit von den Positionen der Einzellautsprecher) sowie des optimalen Punkts innerhalb des Vorführbereichs ab. Diese Größen sind jedoch im Hinblick auf die Position des optimalen Punkts und die Positionen und Übertragungscharakteristika der einzelnen Lautsprecher fest vorgegeben und nicht von einem abgespielten Stück abhängig.A significant advantage of this concept is that in one embodiment, where sound levels are considered, only multiplicative scalings occur, in that for a quotient between the desired level and the actual level that gives the correction value, not the absolute level the listener or the absolute level of the virtual source is required. Instead, the correction factor depends only on the position of the virtual source (and hence the positions of the individual speakers) and the optimal point within the demonstration area. However, these quantities are fixed with respect to the position of the optimum point and the positions and transmission characteristics of the individual speakers and are not dependent on a piece being played.

Daher kann das Konzept rechenzeiteffizient als Nachschlagtabelle implementiert werden, dahingehend, daß eine Nachschlagtabelle erzeugt und verwendet wird, die Position-Korrekturfaktor-Wertepaare umfaßt, und zwar für sämtliche oder einen wesentlichen Teil von möglichen virtuellen Positionen. In diesem Fall ist dann kein On-line-Sollwertermittlungs-, Istwertermittlungs- und Sollwert/Istwert-Vergleichsalgorithmus durchzuführen. Auf diese unter Umständen rechenzeitaufwändigen Algorithmen kann verzichtet werden, wenn auf der Basis einer Position einer virtuellen Quelle auf die Nachschlagtabelle zugegriffen wird, um von dort den für diese Position der virtuellen Quelle gültigen Korrekturfaktor zu ermitteln. Um die Rechen- und Speicher-Effizienz noch weiter zu steigern, wird es bevorzugt, lediglich relativ grob gerasterte Stützwert-Paare für Positionen und zugeordnete Korrekturfaktoren in der Tabelle abzuspeichern und Korrekturfaktoren für Positionswerte, die zwischen zwei Stützwerten liegen, einseitig, zweiseitig, linear, kubisch etc. zu interpolieren.Therefore, the concept can be implemented computationally efficiently as a look-up table, in that a look-up table is generated and used that includes position correction factor value pairs for all or a substantial portion of possible virtual positions. In this case, then no on-line setpoint determination, actual value determination and setpoint / actual value comparison algorithm is to be carried out. These algorithms, which can be computationally expensive, can be dispensed with if the look-up table is accessed on the basis of a position of a virtual source, in order to determine therefrom the correction factor valid for this position of the virtual source. In order to further increase the computational and storage efficiency, it is preferred to store only relatively rough-screened support value pairs for positions and associated correction factors in the table and correction factors for position values lying between two support values, one-sided, two-sided, linear, cubic etc. to interpolate.

Alternativ kann es ferner in dem einen oder anderen Fall sinnvoll sein, einen empirischen Ansatz zu verwenden, dahingehend, daß Pegelmessungen durchgeführt werden. In einem solchen Fall würde eine virtuelle Quelle mit einem bestimmten Kalibrierungspegel an einer bestimmten virtuellen Position plaziert werden. Dann würde für ein reales Wellenfeldsynthesesystem ein Wellenfeldsynthesemodul die Lautsprechersignale für die einzelnen Lautsprecher berechnen, um schließlich am Hörer den tatsächlich aufgrund der virtuellen Quelle ankommenden Pegel zu messen. Ein Korrekturfaktor würde dann dahingehend bestimmt, daß er die Abweichung vom Sollpegel zum Istpegel zumindest reduziert oder vorzugsweise zu 0 bringt. Dieser Korrekturfaktor würde dann in der Nachschlagtabelle in Zuordnung zu der Position der virtuellen Quelle abgespeichert werden, um so nach und nach, also für viele Positionen der virtuellen Quelle, für ein bestimmtes Wellenfeldsynthesesystem in einem speziellen Vorführraum die gesamte Nachschlagtabelle zu erzeugen.Alternatively, it may also be useful in one case or another to use an empirical approach, in that level measurements are performed. In such a case, a virtual source with a particular calibration level would be placed at a particular virtual location. Then, for a real wave field synthesis system, a wave field synthesis module would compute the loudspeaker signals for the individual loudspeakers to eventually measure on the listener the actual level due to the virtual source. A correction factor would then be determined such that it at least reduces the deviation from the desired level to the actual level, or preferably brings it to zero. This correction factor would then be stored in the look-up table in association with the position of the virtual source so as to gradually generate, for many positions of the virtual source, the entire look-up table for a particular wave-field synthesis system in a particular presentation room.

Zur Manipulation auf der Basis des Korrekturfaktors existieren mehrere Möglichkeiten. Bei einer Ausführungsform wird es bevorzugt, das Audiosignal der virtuellen Quelle, wie es beispielsweise in einem Audiotrack, der aus einem Tonstudio kommt, aufgezeichnet ist, mit dem Korrekturfaktor zu manipulieren, um dann erst das manipulierte Signal in ein Wellenfeldsynthesemodul einzuspeisen. Dies führt gewissermaßen automatisch dazu, daß somit alle Komponentensignale, die auf diese manipulierte virtuelle Quelle zurückgehen, ebenfalls entsprechend gewichtet sind, und zwar im Vergleich zu dem Fall, bei dem keine Korrektur gemäß der vorliegenden Erfindung vorgenommen worden ist.For manipulation based on the correction factor, there are several possibilities. In one embodiment, it is preferable to manipulate the audio signal of the virtual source, such as recorded in an audio track coming from a recording studio, with the correction factor, and then to feed the manipulated signal into a wave field synthesis module. In a sense, this automatically means that all component signals going back to this manipulated virtual source are also weighted accordingly, compared to the case where no correction has been made in accordance with the present invention.

Alternativ kann es für bestimmte Anwendungsfälle auch günstig sein, nicht auf das Ursprungs-Audiosignal der virtuellen Quelle einzugreifen, sondern in die durch das Wellenfeldsynthesemodul erzeugten Komponentensignale einzugreifen, um diese Komponentensignale alle vorzugsweise mit demselben Korrekturfaktor zu manipulieren. An dieser Stelle sei darauf hingewiesen, daß der Korrekturfaktor nicht unbedingt identisch für alle Komponentensignale sein muß. Dies wird jedoch in weiten Teilen bevorzugt, um nicht die relative Skalierung der Komponentensignale zueinander, die zur Rekonstruktion der tatsächlichen Wellensituation erforderlich ist, zu stark zu beeinträchtigen.Alternatively, for certain applications, it may also be beneficial not to interfere with the source audio signal of the virtual source, but intervene in the component signals generated by the wave field synthesis module to manipulate these component signals all preferably at the same correction factor. It should be noted at this point that the correction factor is not necessarily identical for all component signals got to. However, this is largely preferred so as not to overly affect the relative scaling of the component signals required to reconstruct the actual wave situation.

Ein Vorteil besteht darin, daß mit relativ einfachen Maßnahmen zumindest während des Betriebs eine Pegelkorrektur dahingehend vorgenommen werden kann, daß der Zuhörer zumindest im Hinblick auf die von ihm wahrgenommene Lautstärke einer virtuellen Quelle nichts davon merkt, daß nicht die eigentlich erforderlichen unendlich vielen Lautsprecher vorhanden sind, sondern lediglich eine begrenzte Menge an Lautsprechern.One advantage is that with relatively simple measures, at least during operation, a level correction can be made to the effect that the listener, at least with regard to perceived by him volume of a virtual source not notice that not the actually required infinitely many speakers are present but only a limited amount of speakers.

Ein weiterer Vorteil besteht darin, daß auch dann, wenn sich eine virtuelle Quelle in einem bezüglich des Zuschauers gleichbleibenden Abstand (z. B. von links nach rechts) bewegt, diese Quelle für den Zuschauer, der beispielsweise in der Mitte vor der Leinwand sitzt, immer gleich laut ist und nicht einmal lauter und einmal leiser ist, was ohne Korrektur der Fall sein würde.Another advantage is that even if a virtual source moves at a constant distance (eg, from left to right) with respect to the viewer, this source for the viewer sitting in the middle in front of the screen, for example, always the same is loud and not even louder and once quieter, which would be the case without correction.

Ein weiterer Vorteil besteht darin, daß sie die Option dahingehend liefert, preisgünstigere Wellenfeldsynthesesysteme mit einer geringeren Anzahl von Lautsprechern anzubieten, die dennoch insbesondere bei sich bewegenden Quellen keine Pegelartefakte mit sich bringen, also für einen Zuhörer im Hinblick auf die Pegelproblematik genau so gut wirken wie aufwendigere Wellenfeldsynthesesysteme mit einer hohen Anzahl an Lautsprechern. Auch für Löcher im Array können eventuell zu niedrige Pegel erfindungsgemäß korrigiert werden.A further advantage is that it provides the option of offering lower cost wave field synthesis systems with fewer speakers, yet without any level artifacts, particularly for moving sources, thus acting as well for a listener as to the level problem more complex wave field synthesis systems with a high number of speakers. Also for holes in the array may be corrected to low levels according to the invention.

Bevor detailliert auf die vorstehend beschriebene bevorzugte Art und Weise zur Pegelartefaktkorrektur eingegangen wird, sei zunächst anhand von Fig. 9 das erfindungsgemäße Konzept zum Erzeugen eines Tieftonkanals dargestellt, das entweder für sich stehend, also ohne Pegelkorrektur der Einzellautsprecher eingesetzt werden kann, oder das vorzugsweise mit dem später Bezug nehmend auf die Fig. 1 - 8 beschriebenen Konzept der Pegelartefaktkorrektur kombiniert werden kann, um die zur Pegelartefaktkorrektur der Einzellautsprecher verwendeten Korrekturwerte auch als Audioobjektskalierungswerte zu verwenden, die bei der Tieftonkanalerzeugung eingesetzt werden müssen.Before discussing the above-described preferred manner for level artifact correction in detail, the concept according to the invention for generating a low-frequency channel, which is either stand-alone, that is to say without level correction, will first be illustrated with reference to FIG Single loudspeaker can be used, or preferably combined with the concept of level artifact correction described later with reference to Figures 1-8, to also use the correction values used for level artifact correction of the individual speakers as audio object scaling values to be used in woofer channel generation.

Fig. 9 zeigt eine Vorrichtung zum Erzeugen eines Tieftonkanals für einen Tieftonlautsprecher, der an einer vorbestimmten Lautsprecherposition angeordnet ist. Die in Fig. 9 gezeigte Vorrichtung umfaßt zunächst eine Einrichtung 900 zum Bereitstellen einer Mehrzahl von Audioobjekten, wobei einem Audioobjekt ein Audioobjektsignal 902 sowie eine Audioobjektbeschreibung 904 zugeordnet sind. Die Audioobjektbeschreibung wird typischerweise eine Audioobjektposition und möglicherweise auch die Audioobjektart umfassen. Je nach Ausführungsform kann die Audioobjektbeschreibung auch direkt eine Angabe für die Audioobjektlautstärke umfassen. Ist dies nicht der Fall, so ist die Audioobjektlautstärke ohne weiteres aus dem Audioobjektsignal selbst zu berechnen, beispielsweise durch abtastwertweise Quadrierung und Aufsummation über einen bestimmten Zeitraum. Sollen bereits hier Übertragungsfunktion, Frequenzgang etc. der einzelnen betrachteten Lautsprecher oder auch des Tieftonlautsprechers berücksichtigt werden, so wird dies ebenfalls durch einen einfachen Tabellennachschlag bzw. einen Korrekturfaktor realisierbar sein, da in einem Wiedergabesystem das elektrische Verhalten des Lautsprechers bzw. die Signal-/Schallcharakteristik des Lautsprechers eine stationäre Größe ist.Fig. 9 shows an apparatus for generating a woofer channel for a woofer located at a predetermined loudspeaker position. The device shown in FIG. 9 initially comprises a device 900 for providing a plurality of audio objects, an audio object having an audio object signal 902 and an audio object description 904 associated therewith. The audio object description will typically include an audio object position and possibly also the audio object type. Depending on the embodiment, the audio object description may also directly include an indication of the audio object volume. If this is not the case, then the audio object volume is easily calculated from the audio object signal itself, for example by sample-by-sample squaring and summation over a certain period of time. If the transfer function, frequency response, etc. of the individual loudspeakers considered or of the woofer are to be taken into consideration, this will likewise be possible by means of a simple table look-up or a correction factor, since in a reproduction system the electrical behavior of the loudspeaker or the signal / sound characteristic of the speaker is a stationary size.

Die Objektbeschreibung des Audiosignals wird einer Einrichtung 906 zum Berechnen eines Audioobjektskalierungswerts für jedes Audioobjekt zugeführt. Die einzelnen Audioobjektskalierungswerte 908 werden dann, wie es anhand von Fig. 9 gezeigt ist, einer Einrichtung 910 zum Skalieren der Objektsignale zugeführt. Die Einrichtung 906 zum Berechnen der Audioobjektskalierungswerte ist ausgebildet, um für jedes Audioobjekt abhängig von der Objektbeschreibung einen Audioobjektskalierungswert zu berechnen. Handelt es sich um eine Quelle, die ebene Wellen aussendet, so wird der Audioobjektskalierungswert bzw. der Korrekturfaktor gleich 1 sein, da für solche Ebene-Wellen-Audioobjekte eine Beabstandung zwischen der Position dieses Objekts und der optimalen Referenzwiedergabeposition unerheblich ist, da die virtuelle Position in diesem Fall im Unendlichen angenommen wird.The object description of the audio signal is supplied to a means 906 for calculating an audio object scaling value for each audio object. The individual audio object scaling values 908 are then applied to means 910 for scaling the object signals, as shown in FIG. 9. The means 906 for calculating the audio object scaling value is configured to calculate an audio object scaling value for each audio object depending on the object description. If it is a source that emits plane waves, then the audio object scaling value or correction factor will be equal to 1 because for such plane-wave audio objects, a spacing between the position of that object and the optimal reference playback position is insignificant because the virtual position in this case is adopted at infinity.

Handelt es sich bei dem Audioobjekt dagegen um eine punktförmig abstrahlende virtuelle Quelle, die an einer virtuellen Position positioniert ist, so wird der Audioobjektskalierungswert abhängig von der Objektlautstärke, die sich entweder in der Objektbeschreibung befindet oder vom Objektsignal abzuleiten ist, und dem Abstand zwischen der virtuellen Position des Audioobjekts und der Referenzwiedergabeposition berechnet.On the other hand, when the audio object is a point-source virtual source positioned at a virtual position, the audio object scale value becomes dependent on the volume of the object either in the object description or derived from the object signal and the distance between the virtual object The position of the audio object and the reference playback position is calculated.

Insbesondere wird es bevorzugt, den Audioobjektskalierungswert bzw. Korrekturwert derart zu berechnen, daß berücksichtigt wird, daß derselbe auf einem Soll-Amplitudenzustand in dem Vorführbereich basiert, wobei der Soll-Amplitudenzustand von einer Position der virtuellen Quelle oder einer Art der virtuellen Quelle abhängt, wobei der Korrekturwert ferner auf einem Ist-Amplitudenzustand in dem Vorführbereich basiert, der auf den Komponentensignalen für die Einzellautsprecher aufgrund der betrachteten virtuellen Quelle basiert. Der Korrekturwert wird also so berechnet, daß durch eine Manipulation des der virtuellen Quelle zugeordneten Audiosignals unter Verwendung des Korrekturwerts eine Abweichung zwischen dem Soll-Amplitudenzustand und dem Ist-Amplitudenzustand verkleinert wird. Nach Skalierung der Objektsignale, die durch die Einrichtung 910 durchgeführt wird, um die skalierten Objektsignale 912 zu erhalten, werden dieselben einer Einrichtung 914 zum Summieren zugeführt, um ein Summensignal 916 zu erzeugen.In particular, it is preferable to calculate the audio object scaling value to be considered to be based on a target amplitude state in the demonstration area, wherein the target amplitude state depends on a position of the virtual source or a kind of the virtual source the correction value is further based on an actual amplitude state in the demonstration area based on the component signals for the individual speakers due to the considered virtual source. The correction value is thus calculated so that a deviation between the desired amplitude state and the actual amplitude state is reduced by a manipulation of the audio signal assigned to the virtual source using the correction value. After scaling the object signals performed by the device 910 to obtain the scaled object signals 912, they become one device 914 for summing to produce a sum signal 916.

Wie es ausgeführt worden ist, wird bevorzugt, vor der Summation durch die Einrichtung 914 auch eine eventuell durch unterschiedliche virtuelle Positionen bedingte Verzögerung bzw. Delay zu berücksichtigen, so daß die einzelnen Audioobjektsignale, die als Sequenzen von Abtastwerten vorliegen, bezüglich einer Zeitreferenz verschoben werden, um Laufzeitunterschiede des Schallsignals von der virtuellen Position zur Referenzwiedergabeposition ausreichend zu berücksichtigen. Nach Skalierung und Berücksichtigung der Verzögerung werden dann die skalierten und entsprechend verzögerten Objektsignale durch die Einrichtung 914 abtastwertweise aufsummiert, um ein Summensignal mit einer Sequenz von Summensignalabtastwerten zu erhalten, das in Fig. 9 mit 916 bezeichnet ist. Dieses Summensignal 916 wird einer Einrichtung 918 zum Bereitstellen des Tieftonkanals für den einen bzw. die mehreren Subwoofer zugeführt, welche ausgangsseitig das Subwoofersignal bzw. den Tieftonkanal 920 liefert.As has been stated, it is preferred to also consider, prior to summation by means 914, a delay possibly due to different virtual positions, so that the individual audio object signals, which are present as sequences of samples, are shifted in respect of a time reference, to sufficiently account for propagation time differences of the sound signal from the virtual position to the reference playback position. After scaling and taking into account the delay, the scaled and correspondingly delayed object signals are then sampled by means 914 to obtain a sum signal having a sequence of sum signal samples, designated 916 in FIG. This sum signal 916 is supplied to a device 918 for providing the woofer channel for the one or more subwoofers, which outputs the subwoofer signal or the woof channel 920 on the output side.

Wie es ausgeführt worden ist, ist das durch einen Tieftonlautsprecher ausgesendete Schallsignal kein Schallsignal mit voller Bandbreite, sondern mit nach oben begrenzter Bandbreite. In einer Ausführungsform wird bevorzugt, daß die Grenzfrequenz des von einem Tieftonlautsprecher ausgesendeten Schallsignals kleiner als 250 Hz ist und vorzugsweise sogar bei lediglich 125 Hz liegt. Die Bandbegrenzung dieses Schallsignals kann an verschiedenen Stellen erfolgen. Eine einfache Maßnahme besteht darin, dem Tieftonlautsprecher ein Anregungssignal mit voller Bandbreite zuzuführen, das dann durch den Tieftonlautsprecher selbst bandbegrenzt wird, da derselbe lediglich tiefe Frequenzen in Schallsignale umsetzt, jedoch hohe Frequenzen unterdrückt.As has been pointed out, the sound signal emitted by a woofer is not a full bandwidth sound signal but with an upwardly limited bandwidth. In one embodiment, it is preferred that the cut-off frequency of the sound signal emitted by a woofer be less than 250 Hz, and preferably even only 125 Hz. The band limitation of this sound signal can be done at different locations. A simple measure is to provide the woofer with a full bandwidth excitation signal which is then band limited by the woofer itself, as it only translates low frequencies into sound signals but suppresses high frequencies.

Alternativ kann die Bandbegrenzung jedoch auch in der Einrichtung 918 zum Bereitstellen des Tieftonkanals erfolgen, indem das Signal dort vor einer Digital-/Analogwandlung tiefpaßgefiltert wird, wobei diese Tiefpaßfilterung, da sie auf digitaler Seite durchgeführt werden kann, bevorzugt wird, damit klare Verhältnisse unabhängig von der tatsächlichen Implementierung des Subwoofers existieren. Alternativ kann jedoch die Tiefpaßfilterung bereits vor der Einrichtung 910 zum Skalieren der Objektsignale erfolgen, so daß die Operationen, die durch die Einrichtungen 910, 914, 918 ausgeführt werden, nunmehr mit Tiefpaßsignalen und nicht mit Signalen der gesamten Bandbreite durchgeführt werden.Alternatively, however, the band limitation may also be performed in the means 918 for providing the bass channel, by low-pass filtering the signal there prior to digital-to-analog conversion, this low-pass filtering, since it can be performed on the digital side, is preferred so that clear conditions exist independently of the actual implementation of the subwoofer. Alternatively, however, the low-pass filtering may already occur prior to means 910 for scaling the object signals, so that the operations performed by means 910, 914, 918 are now performed with low-pass signals rather than full-bandwidth signals.

Erfindungsgemäß wird es jedoch bevorzugt, die Tiefpaßfilterung in der Einrichtung 918 durchzuführen, so daß die Berechnung der Audioobjektskalierungswerte, die Skalierung der Objektsignale und die Summation mit Signalen voller Bandbreite durchgeführt wird, um eine möglichst gute Übereinstimmung der Lautsprecher zwischen Tiefton einerseits und Mittelton und Hochton andererseits sicherzustellen. In anderen Worten ausgedrückt wird es bevorzugt, möglichst viele Operationen parallel zur Bestimmung der eigentlichen Lautsprechersignale für die Lautsprecher im Wellenfeldsynthesearray durchzuführen und erst sehr spät eine "Abspaltung" des Tieftonkanals durchzuführen.According to the invention, however, it is preferred to perform the low-pass filtering in the device 918 so that the calculation of the audio object scaling values, the scaling of the object signals and the summation with full bandwidth signals is performed to best match the loudspeakers between woofer on the one hand and midtone and treble on the other hand sure. In other words, it is preferred to carry out as many operations as possible in parallel to the determination of the actual loudspeaker signals for the loudspeakers in the wave field synthesis array and only very late to perform a "splitting off" of the low-frequency channel.

Fig. 10 zeigt eine bevorzugte Ausführungsform der Einrichtung 918 zum Bereitstellen von nunmehr mehreren Tieftonkanälen für mehrere Subwoofer. Bevor detailliert auf Fig. 10 eingegangen wird, sei zunächst anhand von Fig. 11 die geometrische Situation dargestellt. In Fig. 11 ist schematisch ein Wellenfeldsynthesesystem mit einer Vielzahl von Einzellautsprechern 808 dargestellt. Die Einzellautsprecher 808 bilden ein Array 800 von Einzellautsprechern, die den Vorführbereich umschließen. Vorzugsweise innerhalb des Vorführbereichs befindet sich die Referenzwiedergabeposition bzw. der Referenzpunkt 1100.Fig. 10 shows a preferred embodiment of the means 918 for providing now multiple low frequency channels for multiple subwoofers. Before discussing FIG. 10 in detail, the geometric situation will first be illustrated with reference to FIG. 11. FIG. 11 schematically shows a wave field synthesis system with a plurality of individual loudspeakers 808. The single speakers 808 form an array 800 of single speakers enclosing the demonstration area. Preferably within the demonstration area is the reference reproduction position or reference point 1100.

In Fig. 11 ist ferner schematisch ein Audioobjekt 1102, das als "virtuelles Klangobjekt" bezeichnet ist. Das virtuelle Klangobjekt 1102 umfaßt eine Objektbeschreibung, die eine virtuelle Position 1104 darstellt. Anhand der Koordinaten des Referenzpunkts 1100 und der Koordinaten der virtuellen Position 1104, die gegebenenfalls entsprechend umrechenbar sind, ist der Abstand D des virtuellen Klangobjekts 1102 von der Referenzwiedergabeposition 100 bestimmbar. Anhand dieses Abstands D kann bereits eine einfache Audioobjektskalierungswertberechnung durchgeführt werden, nämlich anhand der Gesetzmäßigkeit, die in Fig. 7a später noch detailliert erklärt werden wird. Fig. 11 zeigt ferner einen ersten Tieftonlautsprecher 1106 an einer ersten vorbestimmten Lautsprecherposition 1108 sowie einen zweiten Tieftonlautsprecher 1110 an einer zweiten Tieftonlautsprecherposition 1112. Wie es in Fig. 11 ausgeführt ist, ist der zweite Subwoofer 1110 bzw. jeder weitere in Fig. 11 nicht dargestellte zusätzliche Subwoofer optional. Der erste Subwoofer 1106 hat zum Referenzpunkt 1100 einen Abstand d1, während der zweite Subwoofer 1110 zum Referenzpunkt einen Abstand d2 hat. Analog hierzu hat ein Subwoofer n (in Fig. 11 nicht gezeigt) zum Referenzpunkt 1100 einen Abstand dn.In Fig. 11 is also schematically an audio object 1102, which is referred to as a "virtual sound object". The virtual sound object 1102 includes an object description representing a virtual position 1104. On the basis of the coordinates of the reference point 1100 and the coordinates of the virtual position 1104, which can be optionally converted accordingly, the distance D of the virtual sound object 1102 from the reference reproduction position 100 can be determined. On the basis of this distance D, a simple audio object scaling value calculation can already be carried out, namely on the basis of the law which will be explained in detail later in FIG. 7a. FIG. 11 further shows a first woofer 1106 at a first predetermined loudspeaker position 1108 and a second woofer 1110 at a second woofer position 1112. As shown in FIG. 11, the second subwoofer 1110 and each other are not shown in FIG additional subwoofer optional. The first subwoofer 1106 has a distance d1 from the reference point 1100, while the second subwoofer 1110 has a distance d2 from the reference point. Similarly, a subwoofer n (not shown in FIG. 11) has a distance dn from the reference point 1100.

Wieder Bezug nehmend auf Fig. 10 ist die Einrichtung 918 zum Bereitstellen des Tieftonkanals ausgebildet, um neben dem Summensignal 916, das in Fig. 10 mit s bezeichnet ist, auch den Abstand d1 des Tieftonlautsprechers 1, der mit 930 bezeichnet ist, auf den Abstand d2 des Tieftonlautsprechers 2, der mit 932 bezeichnet ist, sowie den Abstand dn des Tieftonlautsprechers n, der mit 934 bezeichnet ist, zu empfangen. Ausgangsseitig liefert die Einrichtung 918 einen ersten Tieftonkanal 940, einen zweiten Tieftonkanal 942 sowie einen n-ten Tieftonkanal 944. Aus Fig. 10 ist ersichtlich, daß sämtliche Tieftonkanäle 940, 942, 944 gewichtete Versionen des Summensignals 916 sind, wobei die jeweiligen Gewichtungsfaktoren mit a1, a2, ..., an bezeichnet sind. Die einzelnen Gewichtungsfaktoren a1, a2, an hängen einerseits von den Abständen 930 - 934 sowie andererseits von der allgemeinen Randbedingung ab, daß die Lautstärke der Tieftonkanäle am Referenzpunkt 100 gleich der Referenzlautstärke, also dem Soll-Amplitudenzustand für den Tieftonkanal an der Referenzwiedergabeposition 1100 (Fig. 11) entspricht. Nachdem sich sämtliche Subwoofer vom Referenzpunkt 1100 entfernt befinden, wird die Summe der Lautsprecherskalierungswerte a1, a2, an größer als 1 sein, um die Dämpfung der Tieftonkanäle auf dem Weg vom entsprechenden Subwoofer zum Referenzpunkt entsprechend zu berücksichtigen. Falls nur ein einziger Tieftonlautsprecher (z. B. 1106) vorgesehen ist, wird der Skalierungsfaktor a1 ebenfalls größer als 1 sein, während keine weiteren Skalierungsfaktoren zu berechnen sind, da nur ein einziger Tieftonlautsprecher vorhanden ist.Referring again to Fig. 10, the means 918 for providing the bass channel is adapted to include, in addition to the sum signal 916, denoted by s in Fig. 10, also the distance d1 of the woofer 1, designated 930, to the distance d2 of the woofer 2 labeled 932 and the distance dn of the woofer n designated 934. On the output side, means 918 provides a first woofer channel 940, a second woofer channel 942, and an nth woofer channel 944. From Fig. 10 it can be seen that all woof channels 940, 942, 944 are weighted versions of the sum signal 916, the respective weighting factors being a 1 , a 2 , ..., a n are designated. The individual weighting factors a 1 , a 2 , a n depend on the one hand on the distances 930-934 and on the other hand from the general boundary condition that the volume of the bass channels at the reference point 100 is equal to the reference volume, that is, the target amplitude state for the bass channel at the reference playback position 1100 (FIG. 11). After all subwoofers are away from the reference point 1100, the sum of the loudspeaker scaling values a 1 , a 2 , a n will be greater than 1 to account for the attenuation of the bass channels on the way from the corresponding subwoofer to the reference point. If only a single woofer (eg, 1106) is provided, the scaling factor a 1 will also be greater than 1, while no further scaling factors are to be calculated, as there is only a single woofer.

Nachfolgend wird Bezug nehmend auf die Fig. 1 - 8 eine Pegelartefaktkorrekturvorrichtung für das Lautsprecherarray 800 in Fig. 8 bzw. Fig. 11 dargestellt, die mit der erfindungsgemäßen Tieftonkanalberechnung, wie sie anhand der Fig. 9 - 11 dargestellt worden ist, vorzugsweise kombiniert werden kann.Referring now to FIGS. 1-8, there is shown a level artifact correction device for the loudspeaker array 800 in FIGS. 8 and 11, respectively, which are preferably combined with the inventive low frequency channel calculation as illustrated in FIGS. 9-11 can.

Bevor detailliert auf die vorliegende Erfindung eingegangen wird, wird nachfolgend anhand von Fig. 8 der prinzipielle Aufbau eines Wellenfeldsynthesesystems dargestellt. Das Wellenfeldsynthesesystem hat ein Lautsprecherarray 800, das bezüglich eines Vorführbereichs 802 plaziert ist. Im einzelnen umfaßt das in Fig. 8 gezeigte Lautsprecherarray, das ein 360°-Array ist, vier Arrayseiten 800a, 800b, 800c und 800d. Ist der Vorführbereich 802 z. B. ein Kinosaal, so wird bezüglich der Konventionen vorne/hinten oder rechts/links davon ausgegangen, daß sich die Kinoleinwand auf derselben Seite des Vorführbereichs 802 befindet, an der auch das Teil-Array 800c angeordnet ist. In diesem Fall würde der Betrachter, der an dem hier so genannten Optimal-Punkt P in dem Vorführbereich 802 sitzt, nach vorne, also auf die Leinwand, sehen. Hinter dem Zuschauer würde sich dann das Teil-Array 800a befinden, während sich links vom Zuschauer das Teil-Array 800d befinden würde, und während sich rechts vom Zuschauer das Teil-Array 800b befinden würde. Jedes Lautsprecherarray besteht aus einer Anzahl von verschiedenen Einzellautsprechern 808, die jeweils mit eigenen Lautsprechersignalen angesteuert werden, die von einem Wellenfeldsynthesemodul 810 über einen in Fig. 8 lediglich schematisch gezeigten Datenbus 812 bereitgestellt werden. Das Wellenfeldsynthesemodul ist ausgebildet, um unter Verwendung der Informationen über z. B. Art und Lage der Lautsprecher bezüglich des Vorführbereichs 802, also von Lautsprecher-Informationen (LS-Infos), und gegebenenfalls mit sonstigen Inputs Lautsprechersignale für die einzelnen Lautsprecher 808 zu berechnen, die jeweils von den Audiotracks für virtuelle Quellen, denen ferner Positionsinformationen zugeordnet sind, gemäß den bekannten Wellenfeldsynthesealgorithmen abgeleitet werden. Das Wellenfeldsynthesemodul kann ferner noch weitere Eingaben erhalten, wie beispielsweise Informationen über die Raumakustik des Vorführbereichs etc.Before discussing the present invention in detail, the basic structure of a wave field synthesis system is shown below with reference to FIG. The wave field synthesis system has a speaker array 800 placed relative to a demonstration area 802. Specifically, the loudspeaker array shown in Fig. 8, which is a 360 ° array, includes four array sides 800a, 800b, 800c, and 800d. If the demonstration area 802 z. As a cinema, it is assumed that the cinema screen is on the same side of the screening area 802 on which the sub-array 800c is arranged with respect to the conventions front / back or right / left. In this case, the observer, who is sitting at the so-called optimal point P in the demonstration area 802, would see to the front, ie to the screen. Behind the viewer would then be the sub-array 800a, while left of While the partial array 800d would be located by the viewer and the sub-array 800b would be to the right of the viewer. Each loudspeaker array consists of a number of different individual loudspeakers 808, each of which is driven by its own loudspeaker signals provided by a wave-field synthesis module 810 via a data bus 812 shown only schematically in FIG. The wave-field synthesis module is configured to use the information about e.g. B. type and location of the speaker with respect to the demonstration area 802, so of speaker information (LS information), and optionally with other inputs to calculate loudspeaker signals for the individual speakers 808, each of the audio tracks for virtual sources, which further assigned position information are derived according to the known wave field synthesis algorithms. The wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.

Die nachfolgenden Ausführungen zur vorliegenden Erfindung können prinzipiell für jeden Punkt P in dem Vorführbereich durchgeführt werden. Der Optimal-Punkt kann somit an jeder beliebigen Stelle im Vorführbereich 802 liegen. Es kann auch mehrere Optimal-Punkte, z. B. auf einer Optimal-Linie, geben. Um jedoch möglichst gute Verhältnisse für möglichst viele Punkte im Vorführbereich 802 zu erhalten, wird es bevorzugt, den Optimal-Punkt bzw. die Optimal-Linie in der Mitte bzw. am Schwerpunkt des Wellenfeldsynthesesystems, das durch die Lautsprecher-Teilarrays 800a, 800b, 800c, 800d definiert ist, anzunehmen.The following embodiments of the present invention may in principle be performed for each point P in the demonstration area. The optimum point can therefore be located anywhere in the demonstration area 802. It can also be several optimal points, z. B. on an optimal line, give. However, in order to obtain the best possible ratios for as many points as possible in the demonstration region 802, it is preferred to use the optimum point or the optimal line in the center or center of gravity of the wave field synthesis system which is passed through the loudspeaker sub-arrays 800a, 800b, 800c , 800d is defined to assume.

Eine detailliertere Darstellung des Wellenfeldsynthesemoduls 800 wird nachfolgend anhand der Fig. 2 und 3 Bezug nehmend auf das Wellenfeldsynthesemodul 200 in Fig. 2 bzw. auf die in Fig. 3 detailliert dargestellte Anordnung gegeben.A more detailed representation of the wave field synthesis module 800 is given below with reference to FIGS. 2 and 3 with reference to the wave field synthesis module 200 in FIG. 2 or to the arrangement shown in detail in FIG. 3.

Fig. 2 zeigt eine Wellenfeldsyntheseumgebung, in der die vorliegende Erfindung implementiert werden kann. Zentrum einer Wellenfeldsyntheseumgebung ist ein Wellenfeldsynthesemodul 200, das diverse Eingänge 202, 204, 206 und 208 sowie diverse Ausgänge 210, 212, 214, 216 umfaßt. Über Eingänge 202 bis 204 werden dem Wellenfeldsynthesemodul verschieden Audiosignale für virtuelle Quellen zugeführt. So empfängt der Eingang 202 z. B. ein Audiosignal der virtuellen Quelle 1 sowie zugeordnete Positionsinformationen der virtuellen Quelle. In einem Kinosetting beispielsweise wäre das Audiosignal 1 z. B. die Sprache eines Schauspielers, der sich von einer linken Seite der Leinwand zu einer rechten Seite der Leinwand und möglicherweise zusätzlich noch vom Zuschauer weg bzw. zum Zuschauer hin bewegt. Das Audiosignal 1 wäre dann die tatsächliche Sprache dieses Schauspielers, während die Positionsinformationen als Funktion der Zeit die zu einem bestimmten Zeitpunkt aktuelle Position des ersten Schauspielers im Aufnahmesetting darstellt. Dagegen wäre das Audiosignal n die Sprache beispielsweise eines weiteren Schauspielers, der sich gleich oder anders als der erste Schauspieler bewegt. Die aktuelle Position des anderen Schauspielers, dem das Audiosignal n zugeordnet ist, wird durch mit dem Audiosignal n synchronisierte Positionsinformationen dem Wellenfeldsynthesemodul 200 mitgeteilt. In der Praxis existieren verschiedene virtuelle Quellen je nach Aufnahmesetting, wobei das Audiosignal jeder virtuellen Quelle als eigener Audiotrack dem Wellenfeldsynthesemodul 200 zugeführt wird.Fig. 2 shows a wave field synthesis environment in which the present invention can be implemented. At the center of a wave field synthesis environment is a wave field synthesis module 200 comprising various inputs 202, 204, 206 and 208 as well as various outputs 210, 212, 214, 216. Via inputs 202 to 204, different audio signals for virtual sources are supplied to the wave field synthesis module. Thus, the input 202 receives z. B. an audio signal of the virtual source 1 and associated position information of the virtual source. For example, in a cinema setting, the audio signal would be 1 z. For example, the language of an actor moving from a left side of the screen to a right side of the screen, and possibly additionally away from the viewer or toward the viewer. The audio signal 1 would then be the actual language of this actor, while the position information as a function of time represents the current position of the first actor in the recording setting. By contrast, the audio signal n would be the language of, for example, another actor moving in the same way or different from the first actor. The current position of the other actor to whom the audio signal n is assigned is notified to the wave field synthesis module 200 by position information synchronized with the audio signal n. In practice, various virtual sources exist depending on the recording setting, wherein the audio signal of each virtual source is supplied to the wave field synthesis module 200 as a separate audio track.

Wie es vorstehend dargelegt worden ist, speist ein Wellenfeldsynthesemodul eine Vielzahl von Lautsprechern LS1, LS2, LS3, LSm durch Ausgabe von Lautsprechersignalen über die Ausgänge 210 bis 216 zu den einzelnen Lautsprechern. Dem Wellenfeldsynthesemodul 200 werden über den Eingang 206 die Positionen der einzelnen Lautsprecher in einem Wiedergabesetting, wie beispielsweise einem Kinosaal mitgeteilt. Im Kinosaal befinden sich um den Kinozuschauer herum gruppiert viele einzelne Lautsprecher, die in Arrays vorzugsweise derart angeordnet sind, daß sich sowohl vor dem Zuschauer, also beispielsweise hinter der Leinwand, als auch hinter dem Zuschauer sowie rechts und links des Zuschauers Lautsprecher befinden. Ferner können dem Wellenfeldsynthesemodul 200 noch sonstige Eingaben mitgeteilt werden, wie beispielsweise Informationen über die Raumakustik etc., um in einem Kinosaal die tatsächliche während des Aufnahmesettings herrschende Raumakustik simulieren zu können.As stated above, a wave field synthesis module feeds a plurality of loudspeakers LS1, LS2, LS3, LSm by outputting loudspeaker signals via the outputs 210 to 216 to the individual loudspeakers. The wave field synthesis module 200 is informed via the input 206 of the positions of the individual speakers in a playback setting, such as a movie theater. In the cinema hall, there are many individual loudspeakers grouped around the cinema viewer, preferably in arrays are arranged so that both in front of the viewer, so for example behind the screen, as well as behind the viewer and right and left of the viewer speakers are located. Furthermore, the Wellenfeldsynthesemodul 200 still other inputs can be communicated, such as information about the room acoustics, etc., to be able to simulate the actual prevailing during the recording setting room acoustics in a cinema.

Allgemein gesagt wird das Lautsprechersignal, das beispielsweise dem Lautsprecher LS1 über den Ausgang 210 zugeführt wird, eine Überlagerung von Komponentensignalen der virtuellen Quellen sein, dahingehend, daß das Lautsprechersignal für den Lautsprecher LS1 eine erste Komponente, die auf die virtuelle Quelle 1 zurückgeht, eine zweite Komponente, die auf die virtuelle Quelle 2 zurückgeht, sowie eine n-te Komponente, die auf die virtuelle Quelle n zurückgeht, umfassen. Die einzelnen Komponentensignale werden linear superponiert, also nach ihrer Berechnung addiert, um die linerare Superposition am Ohr des Zuhörers nachzubilden, der in einem realen Setting eine lineare Überlagerung der von ihm wahrnehmbaren Schallquellen hören wird.Generally speaking, the loudspeaker signal supplied to the loudspeaker LS1 via the output 210, for example, will be a superposition of component signals of the virtual sources, in that the loudspeaker signal for the loudspeaker LS1 is a first component originating in the virtual source 1, a second one Component that originates from the virtual source 2 and an nth component that goes back to the virtual source n. The individual component signals are superimposed linearly, that is to say added according to their calculation, in order to simulate the linear superposition at the ear of the listener, who in a real setting will hear a linear superimposition of the sound sources that he can perceive.

Nachfolgend wird Bezug nehmend auf Fig. 3 eine detailliertere Ausgestaltung des Wellenfeldsynthesemoduls 200 dargelegt. Das Wellenfeldsynthesemodul 200 hat einen stark parallelen Aufbau dahingehend, daß ausgehend von dem Audiosignal für jede virtuelle Quelle und ausgehend von den Positionsinformationen für die entsprechende virtuelle Quelle zunächst Verzögerungsinformationen Vi sowie Skalierungsfaktoren SFi berechnet werden, die von den Positionsinformationen und der Position des gerade betrachteten Lautsprechers, z. B. dem Lautsprecher mit der Ordnungsnummer j, also LSj, abhängen. Die Berechnung einer Verzögerungsinformation Vi sowie eines Skalierungsfaktors SFi aufgrund der Positionsinformationen einer virtuellen Quelle und der Lage des betrachteten Lautsprechers j geschieht durch bekannte Algorithmen, die in Einrichtungen 300, 302, 304, 306 implementiert sind. Auf der Basis der Verzögerungsinformationen Vi(t) und SFi(t) sowie auf der Basis des der einzelnen virtuellen Quelle zugeordneten Audiosignals ASi(t) wird für einen aktuellen Zeitpunkt tA ein diskreter Wert AWi(tA) für das Komponentensignal Kij in einem letztendlich erhaltenen Lautsprechersignal berechnet. Dies erfolgt durch Einrichtungen, 310, 312, 314, 316, wie sie in Fig. 3 schematisch dargestellt sind. Fig. 3 zeigt ferner gewissermaßen eine "Blitzlichtaufnahme" zum Zeitpunkt tA für die einzelnen Komponentensignale. Die einzelnen Komponentensignale werden dann durch einen Summierer 320 summiert, um den diskreten Wert für den aktuellen Zeitpunkt tA des Lautsprechersignals für den Lautsprecher j zu ermitteln, der dann für den Ausgang (beispielsweise der Ausgang 214, wenn der Lautsprecher j der Lautsprecher LS3 ist), dem Lautsprecher zugeführt werden kann.Referring now to FIG. 3, a more detailed embodiment of the wave-field synthesis module 200 will be set forth below. The wave field synthesis module 200 has a highly parallel construction in that, starting from the audio signal for each virtual source and based on the position information for the corresponding virtual source, first delay information V i and scale factors SF i calculated from the position information and the position of the currently considered one Speaker, z. B. the speaker with the ordinal number j, so LSj depend. The calculation of a delay information V i and a scaling factor SF i on the basis of the position information of a virtual source and the position of the considered loudspeaker j occurs by known algorithms implemented in devices 300, 302, 304, 306. On the basis of the delay information V i (t) and SF i (t) and on the basis of the individual virtual source associated audio signal AS i (t) is for a current time t A a discrete value AW i (t A ) for the Computed signal K ij calculated in a final received speaker signal. This is done by means 310, 312, 314, 316, as shown schematically in FIG. Fig. 3 also shows a kind of "flash photography" at time t A for the individual component signals. The individual component signals are then summed by a summer 320 to determine the discrete value for the current time t A of the loudspeaker signal for the loudspeaker j, which is then used for the output (for example the output 214 if the loudspeaker j is the loudspeaker LS3). to which speaker can be supplied.

Wie es aus Fig. 3 ersichtlich ist, wird zunächst für jede virtuelle Quelle einzeln ein aufgrund einer Verzögerung und einer Skalierung mit einem Skalierungsfaktor zu einem aktuellen Zeitpunkt gültiger Wert berechnet, wonach sämtliche Komponentensignale für einen Lautsprecher aufgrund der verschiedenen virtuellen Quellen summiert werden. Wäre beispielsweise nur eine virtuelle Quelle vorhanden, so würde der Summierer entfallen, und das am Ausgang des Summierers in Fig. 3 anliegende Signal würde z. B. dem Signal entsprechen, das von der Einrichtung 310 ausgegeben wird, wenn die virtuelle Quelle 1 die einzige virtuelle Quelle ist.As can be seen in Fig. 3, first each value is calculated for each virtual source individually, based on a delay and scaling with a scaling factor at a current time, after which all the component signals for a loudspeaker are summed due to the different virtual sources. For example, if only one virtual source were present, the summer would be omitted and the signal applied to the output of the summer in FIG. For example, correspond to the signal output from the device 310 when the virtual source 1 is the only virtual source.

An dieser Stelle sei darauf hingewiesen, daß an dem Ausgang 322 von Fig. 3 der Wert eines Lautsprechersignals erhalten wird, das eine Überlagerung der Komponentensignale für diesen Lautsprecher aufgrund der verschiedenen virtuellen Quellen 1, 2, 3, ..., n ist. Eine Anordnung, wie sie in Fig. 3 gezeigt ist, wäre prinzipiell für jeden Lautsprecher 808 im Wellenfeldsynthesemodul 810 vorgesehen, es sei denn, daß, was aus praktischen Gründen bevorzugt wird, immer z. B. 2, 4 oder 8 zusammenliegende Lautsprecher mit demselben Lautsprechersignal angesteuert werden.It should be noted that at the output 322 of Figure 3, the value of a loudspeaker signal is obtained which is a superposition of the component signals for that loudspeaker due to the various virtual sources 1, 2, 3, ..., n. An arrangement as shown in FIG. 3 would, in principle, be provided for each loudspeaker 808 in the wave field synthesis module 810, unless that, which is preferred for practical reasons, always z. B. 2, 4 or 8 speakers are driven together with the same speaker signal.

Fig. 1 zeigt ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem, das Bezug nehmend auf Fig. 8 dargelegt worden ist. Das Wellenfeldsynthesesystem umfaßt das Wellenfeldsynthesemodul 810 sowie das Lautsprecherarray 800 zur Schallversorgung des Vorführbereichs 802, wobei das Wellenfeldsynthesemodul 810 ausgebildet ist, um ein einer virtuellen Schallquelle zugeordnetes Audiosignal sowie der virtuellen Schallquelle zugeordnete Quellenpositionsinformationen zu empfangen und unter Berücksichtigung von LautsprecherPositionsinformationen Komponentensignale für die Lautsprecher aufgrund der virtuellen Quelle zu berechnen. Die erfindungsgemäße Vorrichtung umfaßt zunächst eine Einrichtung 100 zum Ermitteln eines Korrekturwerts, der auf einem Soll-Amplitudenzustand in dem Vorführbereich basiert, wobei der Soll-Amplitudenzustand von einer Position der virtuellen Quelle oder einer Art der virtuellen Quelle abhängt, und wobei der Korrekturwert ferner auf einem Ist-Amplitudenzustand in dem Vorführbereich basiert, der von den Komponentensignalen für die Lautsprecher aufgrund der virtuellen Quelle abhängt.Fig. 1 is a block diagram of the level correction apparatus of the present invention in a wave field synthesis system set forth with reference to Fig. 8; The wave field synthesis system includes the wave field synthesis module 810 and the speaker array 800 for sounding the presentation area 802, the wave field synthesis module 810 configured to receive source signal information associated with a virtual sound source and source position information associated with the virtual sound source, and component signals for the speakers based on the virtual speaker To calculate source. The apparatus according to the invention comprises first a means 100 for determining a correction value based on a target amplitude state in the demonstration area, wherein the target amplitude state depends on a position of the virtual source or a type of the virtual source, and wherein the correction value is further on a Actual amplitude state is based in the demonstration area, which depends on the component signals for the speakers due to the virtual source.

Die Einrichtung 100 hat einen Eingang 102 zum Erhalten einer Position der virtuellen Quelle, wenn sie z. B. eine Punktquellencharakteristik hat, oder zum Erhalten von Informationen über eine Art der Quelle, wenn die Quelle z. B. eine Quelle zur Erzeugung von ebenen Wellen ist. In diesem Fall ist der Abstand des Zuhörers von der Quelle zur Bestimmung des Ist-Zustands nicht nötig, da sich die Quelle aufgrund der erzeugten ebenen Wellen im Modell gedacht ohnehin unendlich weit entfernt von dem Hörer befindet und einen positionsunabhängigen Pegel hat. Die Einrichtung 100 ist ausgebildet, um ausgangsseitig einen Korrekturwert 104 auszugeben, der einer Einrichtung 106 zum Manipulieren eines der virtuellen Quelle zugeordneten Audiosignals (das über einen Eingang 108 erhalten wird) oder zum Manipulieren von Komponentensignalen für die Lautsprecher aufgrund einer virtuellen Quelle (die über einen Eingang 110 erhalten werden), zu manipulieren. Falls die Alternative des Manipulierens des Audiosignals, das über den Eingang 108 bereitgestellt wird, durchgeführt wird, ergibt sich an einem Ausgang 112 ein manipuliertes Audiosignal, das dann erfindungsgemäß statt des ursprünglichen Audiosignals, das am Eingang 108 bereitgestellt wird, in das Wellenfeldsynthesemodul 200 eingespeist wird, um die einzelnen Lautsprechersignale 210, 212, ..., 216 zu erzeugen.The device 100 has an input 102 for obtaining a position of the virtual source, when e.g. B. has a point source characteristic, or to obtain information about a type of source when the source z. B. is a source for generating plane waves. In this case, the distance of the listener from the source to determine the actual state is not necessary, since the source is anyway infinitely distant from the listener due to the generated plane waves in the model and has a position independent level. The device 100 is designed to output on the output side a correction value 104, which is assigned to a device 106 for manipulating manipulating an audio signal associated with the virtual source (obtained via an input 108) or manipulating component signals for the speakers due to a virtual source (obtained via an input 110). If the alternative of manipulating the audio signal provided via the input 108 is performed, an engineered audio signal results at an output 112, which is then fed to the wave field synthesis module 200 instead of the original audio signal provided at the input 108 to generate the individual loudspeaker signals 210, 212, ..., 216.

Wurde dagegen die andere Alternative zum Manipulieren verwendet, nämlich die gewissermaßen eingebettete Manipulation der Komponentensignale, die über den Eingang 110 erhalten worden sind, so werden ausgangsseitig manipulierte Komponentensignale erhalten, die noch Lautsprecher-weise aufsummiert werden müssen (Einrichtung 116), und zwar mit gegebenenfalls manipulierten Komponentensignalen von anderen virtuellen Quellen, die über weitere Eingänge 118 bereitgestellt werden. Ausgangsseitig liefert die Einrichtung 116 wieder die Lautsprechersignale 210, 212, ..., 216. Es sei darauf hingewiesen, daß die in Fig. 1 gezeigten Alternativen der vorgeschalteten Manipulation (Ausgang 112) oder der eingebetteten Manipulation (Ausgang 114) alternativ zueinander verwendet werden können. Je nach Ausführungsform kann es jedoch auch Fälle geben, in denen der Gewichtungsfaktor bzw. Korrekturwert, der über den Eingang 104 in die Einrichtung 106 bereitgestellt wird, gewissermaßen gesplittet wird, so daß teilweise eine vorgeschaltete Manipulation und teilweise eine eingebettete Manipulation durchgeführt wird.If, on the other hand, the other alternative was used for manipulation, namely the somewhat embedded manipulation of the component signals obtained via the input 110, manipulated component signals are obtained on the output side which still need to be summed loudspeaker wise (device 116), if appropriate manipulated component signals from other virtual sources provided via further inputs 118. On the output side, the device 116 again provides the loudspeaker signals 210, 212, ..., 216. It should be noted that the alternatives of the upstream manipulation (output 112) or the embedded manipulation (output 114) shown in FIG. 1 are used alternatively to each other can. Depending on the embodiment, however, there may also be cases in which the weighting factor or correction value provided via the input 104 into the device 106 is split, as it were, so that an upstream manipulation and partly an embedded manipulation is partially performed.

Im Hinblick auf Fig. 3 würde die vorgeschaltete Manipulation somit darin bestehen, daß das Audiosignal der virtuellen Quelle, das in eine Einrichtung 310, 312, 314 bzw. 316 eingespeist wird, vor seiner Einspeisung manipuliert wird.Thus, with reference to Figure 3, the upstream manipulation would be to manipulate the audio signal of the virtual source fed to a device 310, 312, 314, and 316, respectively, prior to its injection.

Die eingebettete Manipulation würde dagegen darin bestehen, daß die von den Einrichtungen 310, 312, 314 bzw. 316 ausgegebenen Komponentensignale vor ihrer Summation, um tatsächliche Lautsprechersignal zu erhalten, manipuliert werden.The embedded manipulation, on the other hand, would be that the component signals output by means 310, 312, 314, and 316, respectively, are manipulated prior to their summation to obtain actual loudspeaker signal.

Diese beiden Möglichkeiten, die entweder alternativ oder kumulativ verwendbar sind, sind in den Fig. 6a und Fig. 6b dargestellt. So zeigt Fig. 6a die eingebettete Manipulation durch die Manipulationseinrichtung 106, die in Fig. 6a als Multiplizierer gezeichnet ist. Eine Wellenfeldsyntheseeinrichtung, die beispielsweise aus den Blöcken 300, 310 bzw. 302, 312, bzw. 304, 314 und 306 bzw. 316 von Fig. 3 besteht, liefert die Komponentensignale K11, K12, K13 für den Lautsprecher LS1 bzw. die Komponentensignale Kn1, Kn2 und Kn3 für den Lautsprecher LSn.These two possibilities, which can be used either alternatively or cumulatively, are shown in FIGS. 6a and 6b. Thus, Fig. 6a shows the embedded manipulation by the manipulation device 106, which is drawn in Fig. 6a as a multiplier. A wave field synthesis device, which consists for example of the blocks 300, 310 and 302, 312, and 304, 314 and 306 and 316 of FIG. 3, provides the component signals K 11 , K 12 , K 13 for the loudspeaker LS1 and the component signals K n1 , K n2 and K n3 for the loudspeaker LSn.

In der in Fig. 6a gewählten Notation zeigt der erste Index von Kij den Lautsprecher an, und zeigt der zweite Index die virtuelle Quelle an, von der das Komponentensignal stammt. Die virtuelle Quelle 1 beispielsweise äußert sich in dem Komponentensignal Kl1, ..., Knl. Um den Pegel der virtuellen Quelle 1 abhängig von den Positionsinformationen der virtuellen Quelle 1 (ohne Beeinflussung der Pegel der anderen virtuellen Quellen) selektiv zu beeinflussen, wird bei der in Fig. 6a gezeigten eingebetteten Manipulation eine Multiplikation der Komponentensignale, die zu der Quelle 1 gehören, also der Komponentensignale, deren Index j auf die virtuelle Quelle 1 hinweist, mit dem Korrekturfaktor F1 stattfinden. Um eine entsprechende Amplituden- bzw. Pegelkorrektur für die virtuelle Quelle 2 durchzuführen, werden sämtliche Komponentensignale, die auf die virtuelle Quelle 2 zurückgehen, mit einem hierfür bestimmten Korrekturfaktor F2 multipliziert. Schließlich werden auch die Komponentensignale, die auf die virtuelle Quelle 3 zurückgehen, durch einen entsprechenden Korrekturfaktor F3 gewichtet.In the notation selected in Figure 6a, the first index of K ij indicates the speaker, and the second index indicates the virtual source from which the component signal originates. The virtual source 1, for example, is expressed in the component signal K l1 , ..., K nl . In order to selectively influence the level of the virtual source 1 depending on the position information of the virtual source 1 (without affecting the levels of the other virtual sources), in the embedded manipulation shown in Fig. 6a, a multiplication of the component signals belonging to the source 1 becomes , So the component signals whose index j points to the virtual source 1, take place with the correction factor F 1 . In order to carry out a corresponding amplitude or level correction for the virtual source 2, all the component signals which go back to the virtual source 2 are multiplied by a correction factor F 2 determined for this purpose. Finally, the component signals going back to the virtual source 3 are also weighted by a corresponding correction factor F 3 .

Es sei darauf hingewiesen, daß die Korrekturfaktoren F1, F2 und F3, wenn alle sonstigen geometrischen Parameter gleich sind, lediglich von der Position der entsprechenden virtuellen Quelle abhängen. Würden somit alle drei virtuellen Quellen z. B. Punktquellen (also gleicher Art) sein und an derselben Position sein, so wäre die Korrekturfaktoren für die Quellen identisch. Diese Gesetzmäßigkeit wird noch Bezug nehmend auf Fig. 4 näher erläutert, da es zur Rechenzeitvereinfachung möglich ist, eine Nachschlagtabelle mit Positionsinformationen und jeweils zugeordneten Korrekturfaktoren zu verwenden, die zwar irgendwann erstellt werden muß, auf die jedoch im Betrieb schnell zugegriffen werden kann, ohne daß im Betrieb ständig eine Sollwert/Istwert-Berechnungs- und Vergleichs-Operation durchgeführt werden muß, was jedoch prinzipiell ebenfalls möglich ist.It should be noted that the correction factors F 1 , F 2 and F 3 , if all other geometric parameters equal are only dependent on the location of the corresponding virtual source. Would thus all three virtual sources z. For example, if point sources (that is, of the same kind) are at the same position, the correction factors for the sources would be identical. This law will be explained in more detail with reference to FIG. 4, since it is possible to use a lookup table with position information and respective associated correction factors, which must be created at some point, but which can be accessed quickly during operation, without having to In operation, a setpoint / actual value calculation and comparison operation must be performed constantly, which is also possible in principle.

Fig. 6b zeigt die erfindungsgemäße Alternative zur Quellenmanipulation. Die Manipulationseinrichtung ist hier der Wellenfeldsyntheseeinrichtung vorgeschaltet und ist wirksam, um die Audiosignale der Quellen mit den entsprechenden Korrekturfaktoren zu korrigieren, um manipulierte Audiosignale für die virtuellen Quellen zu erhalten, die dann der Wellenfeldsyntheseeinrichtung zugeführt werden, um die Komponentensignale zu erhalten, die dann von den jeweiligen Komponentensummationseinrichtungen aufsummiert werden, um die Lautsprechersignale LS für die entsprechenden Lautsprecher, wie beispielsweise den Lautsprecher LSi, zu erhalten.Fig. 6b shows the inventive alternative to source manipulation. The manipulation device is connected upstream of the wave field synthesis device and is operative to correct the audio signals of the sources with the corresponding correction factors to obtain manipulated audio signals for the virtual sources, which are then supplied to the wave field synthesis device to obtain the component signals, which are then output from the sources respective component summation means are accumulated to obtain the loudspeaker signals LS for the respective loudspeakers, such as the loudspeaker LS i .

Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist die Einrichtung 100 zum Ermitteln des Korrekturwerts als Nachschlagtabelle 400 ausgebildet, die Position-Korrekturfaktor-Wertepaare speichert. Die Einrichtung 100 ist vorzugsweise ferner mit einer Interpolationseinrichtung 402 versehen, um einerseits die Tabellengröße der Nachschlagtabelle 400 in einem begrenzten Rahmen zu halten, und um andererseits auch für aktuelle Positionen einer virtuellen Quelle, die über einen Eingang 404 in die Interpolationseinrichtung eingespeist werden, zumindest unter Verwendung einer oder mehrerer benachbarter in der Nachschlagtabelle gespeicherten Position-Korrekturfaktor-Wertepaare, die der Interpolationseinrichtung 402 über eine Eingang 406 zugeführt werden, einen interpolierten aktuellen Korrekturfaktor an einem Ausgang 408 zu erzeugen. Bei einer einfacheren Version kann die Interpolationseinrichtung 402 jedoch auch weggelassen werden, so daß die Einrichtung 100 zum Ermitteln von Fig. 1 einen direkten Zugriff unter Verwendung von an einem Eingang 410 zugeführten Positionsinformationen auf die Nachschlagtabelle durchführt und an einem Ausgang 412 einen entsprechenden Korrekturfaktor liefert. Entsprechen die aktuellen Positionsinformationen, die dem Audiotrack der virtuellen Quelle zugeordnet sind, nicht genau einer Positionsinformation, die in der Nachschlagtabelle zu finden ist, so kann der Nachschlagtabelle noch eine einfache Abrundungs-/Aufrundungs-Funktion zugeordnet sein, um den nächstliegenden in der Tabelle gespeicherten Stützwert statt des aktuellen Stützwerts zu nehmen.In a preferred embodiment of the present invention, the means 100 for determining the correction value is formed as a look-up table 400 which stores position correction factor value pairs. The device 100 is preferably also provided with an interpolator 402 in order, on the one hand, to keep the table size of the lookup table 400 in a limited frame and, on the other hand, also for current positions of a virtual source, which are fed into the interpolator via an input 404, at least below Using one or more adjacent position correction factor value pairs stored in the look-up table, which are supplied to the interpolator 402 via an input 406 to produce an interpolated current correction factor at an output 408. However, in a simpler version, the interpolator 402 may also be omitted so that the means 100 for determining FIG. 1 performs direct access to the look-up table using position information supplied at an input 410 and provides an appropriate correction factor at an output 412. If the current position information associated with the audio track of the virtual source does not correspond exactly to position information found in the look-up table, then the look-up table may still be assigned a simple round-up / round-down function to the nearest one stored in the table Support value instead of the current base value.

An dieser Stelle sei darauf hingewiesen, dass für verschiedene Quellenarten verschiedene Tabellen angelegt werden können, oder dass einer Position nicht nur ein Korrekturfaktor zugeordnet ist, sondern mehrere Korrekturfaktoren, wobei jeder Korrekturfaktor mit einer Quellenart verknüpft ist.It should be noted here that different tables can be created for different types of sources, or that a position is assigned not just one correction factor but several correction factors, each correction factor being linked to a source type.

Alternativ kann statt der Nachschlagtabelle oder zur "Auffüllung" der Nachschlagtabelle in Fig. 4 die Einrichtung zum Ermitteln ausgebildet sein, um tatsächlich einen Sollwert-Istwert-Vergleich durchzuführen. In diesem Fall umfaßt die Einrichtung 100 von Fig. 1 eine Soll-Amplituden-Zustandsermittlungseinrichtung 500 sowie eine Ist-Amplituden-Zustandsermittlungseinrichtung 502, um einen Soll-Amplitudenzustand 504 sowie einen Ist-Amplitudenzustand 506 zu liefern, die einer Vergleichseinrichtung 508 zugeführt werden, die beispielsweise einen Quotienten aus dem Soll-Amplitudenzustand 504 und dem Ist-Amplitudenzustand 506 berechnet, um einen Korrekturfaktor 510 zu erzeugen, der der Einrichtung 106 zum Manipulieren, die in Fig. 1 gezeigt ist, zur weiteren Verwendung zugeführt wird. Alternativ kann der Korrekturwert auch in einer Nachschlagtabelle abgespeichert werden.Alternatively, instead of the look-up table or "populating" the look-up table in FIG. 4, the means for determining may be configured to actually perform a setpoint-actual value comparison. In this case, the device 100 of FIG. 1 includes a desired amplitude state determination device 500 and an actual amplitude state determination device 502 to provide a desired amplitude state 504 and an actual amplitude state 506, which are supplied to a comparison device 508 For example, a quotient of the desired amplitude state 504 and the actual amplitude state 506 is calculated to produce a correction factor 510 that is applied to the device 106 for manipulating, which is shown in Fig. 1, is supplied for further use. Alternatively, the correction value can also be stored in a lookup table.

Die Soll-Amplituden-Zustandsberechnung ist ausgebildet, um einen Soll-Pegel am Optimal-Punkt für eine an einer bestimmten Position bzw. in einer bestimmten Art ausgestaltete virtuelle Quelle zu ermitteln. Für die Soll-Amplitudenzustandsberechnung benötigt die Soll-Amplitudenzustandsermittlungseinrichtung 500 selbstverständliche keine Komponentensignale, da der Soll-Amplitudenzustand von den Komponentensignalen unabhängig ist. Komponentensignale werden jedoch, wie es aus Fig. 5 ersichtlich ist, der Ist-Amplitudenermittlungseinrichtung 502 zugeführt, die ferner je nach Ausführungsform auch noch Informationen über die Lautsprecherpositionen sowie Informationen über Lautsprecher-Übertragungsfunktionen und/oder Informationen über Richtcharakteristika der Lautsprecher erhalten kann, um eine Ist-Situation so gut als möglich zu ermitteln. Alternativ kann die Ist-Amplitudenzustandsermittlungseinrichtung 502 auch als tatsächliches Meßsystem ausgebildet sein, um eine Ist-Pegelsituation an dem Optimal-Punkt für bestimmte virtuelle Quellen an bestimmten Positionen zu ermitteln.The desired amplitude state calculation is designed to determine a target level at the optimum point for a virtual source configured at a specific position or in a specific manner. For the target amplitude state calculation, the target amplitude state determination device 500 does not need any component signals, of course, since the target amplitude state is independent of the component signals. Component signals are, however, as shown in FIG. 5, the actual amplitude determining means 502 which further depending on the embodiment also information about the speaker positions and information about speaker transfer functions and / or information on directional characteristics of the speakers can get to a To determine the actual situation as well as possible. Alternatively, the actual amplitude state determination device 502 can also be embodied as an actual measurement system in order to determine an actual level situation at the optimum point for specific virtual sources at specific positions.

Nachfolgend wird Bezug nehmend auf Fig. 7a und Fig. 7b auf den Ist-Amplitudenzustand bzw. den Soll-Amplitudenzustand Bezug genommen. Fig. 7a zeigt ein Diagramm zum Ermitteln eines Soll-Amplitudenzustands an einem vorbestimmten Punkt, der in Fig. 7a mit "Optimal-Punkt" bezeichnet ist, und der im Vorführbereich 802 von Fig. 8 liegt. In Fig. 7a ist lediglich beispielhaft eine virtuelle Quelle 700 als Punktquelle eingezeichnet, die ein Schallfeld mit konzentrischen Wellenfronten erzeugt. Ferner ist aufgrund des Audiosignals für die virtuelle Quelle 700 der Pegel Lv der virtuellen Quelle 700 bekannt. Der Soll-Amplitudenzustand bzw. dann, wenn der Amplitudenzustand ein Pegelzustand ist, der Soll-Pegel an dem Punkt P im Vorführbereich wird ohne weiteres dadurch erhalten, daß der Pegel LP am Punkt P gleich dem Quotienten aus Lv und einem Abstand r ist, den der Punkt P zu der virtuellen Quelle 700 hat. Der Soll-Amplitudenzustand kann somit ohne weiteres durch Berechnung des Pegels Lv der virtuellen Quelle und durch Berechnung des Abstands r vom Optimal-Punkt zur virtuellen Quelle ermittelt werden. Zur Berechnung des Abstands r muß typischerweise eine Koordinatentransformation der virtuellen Koordinaten in die Koordinaten des Vorführraums oder eine Koordinatentransformation der Vorführraumkoordinaten des Punkts P in die virtuellen Koordinaten durchgeführt werden, was für Fachleute auf dem Gebiet der Wellenfeldsynthese bekannt ist.Hereinafter, referring to FIGS. 7a and 7b, reference will be made to the actual amplitude state and the target amplitude state, respectively. FIG. 7 a shows a diagram for determining a desired amplitude state at a predetermined point, which is designated "optimal point" in FIG. 7 a, and which lies in the demonstration area 802 of FIG. 8. In FIG. 7a, merely by way of example, a virtual source 700 is shown as a point source, which generates a sound field with concentric wavefronts. Further, due to the audio signal for the virtual source 700, the level L v of the virtual source 700 is known. The target amplitude state or, when the amplitude state is a level state, the target level at the point P in the demonstration area becomes easily obtained by the level L P at the point P is equal to the quotient of L v and a distance r has the point P to the virtual source 700. The desired amplitude state can thus be easily determined by calculating the level L v of the virtual source and by calculating the distance r from the optimal point to the virtual source. Typically, to compute the distance r, a coordinate transformation of the virtual coordinates into the coordinates of the presentation space or a coordinate transformation of the presentation space coordinates of the point P into the virtual coordinates must be performed, as is known to those skilled in the art of wave field synthesis.

Ist die virtuellen Quelle dagegen eine unendlich weit entfernte virtuelle Quelle, die am Punkt P ebene Wellen erzeugt, so wird zur Bestimmung des Soll-Amplitudenzustands der Abstand zwischen dem Punkt P und der Quelle nicht benötigt, da dieser ohnehin gegen unendlich geht. In diesem Fall wird lediglich eine Informationen über die Art der Quelle benötigt. Der Soll-Pegel am Punkt P ist dann gleich dem Pegel, der dem ebenen Wellenfeld, das durch die unendlich weit entfernte virtuelle Quelle erzeugt wird, zugeordnet ist.If, on the other hand, the virtual source is an infinitely distant virtual source which generates plane waves at the point P, then the distance between the point P and the source is not needed to determine the desired amplitude state, since this point goes to infinity anyway. In this case, only information about the type of source is needed. The desired level at point P is then equal to the level associated with the planar wave field generated by the infinitely distant virtual source.

Fig. 7 zeigt ein Diagramm zur Erläuterung des Ist-Amplitudenzustands. Insbesondere sind in Fig. 7b verschiedene Lautsprecher 808 gezeichnet, die alle mit einem eigenen Lautsprechersignal gespeist werden, das z. B. von dem Wellenfeldsynthesemodul 810 von Fig. 8 erzeugt worden ist. Ferner wird jeder Lautsprecher als Punktquelle modelliert, die ein konzentrisches Wellenfeld ausgibt. Die Gesetzmäßigkeit des konzentrischen Wellenfelds besteht wieder darin, daß der Pegel gemäß 1/r abfällt. Damit kann zur Berechnung des Ist-Amplitudenzustands (ohne Messung) das von dem Lautsprecher 808 unmittelbar an der Lautsprechermembran erzeugte Signal bzw. der Pegel dieses Signals auf der Basis der Lautsprechercharakteristika und des Komponentensignals im Lautsprechersignal LSn, das auf die betrachtete virtuelle Quelle zurückgeht, berechnet werden. Ferner kann aufgrund der Koordinaten des Punkts P und der Ortsinformationen zur Lage des Lautsprechers LSn der Abstand zwischen P und der Lautsprechermembran des Lautsprechers LSn ausgerechnet werden, so daß ein Pegel für den Punkt P aufgrund eines Komponentensignals erhalten werden kann, das auf die betrachtete virtuelle Quelle zurückgeht und von dem Lautsprecher LSn ausgesendet worden ist.Fig. 7 is a diagram for explaining the actual amplitude state. In particular, in Fig. 7b different speakers 808 drawn, all of which are fed with its own speaker signal, the z. B. generated by the wave field synthesis module 810 of FIG. 8. Further, each speaker is modeled as a point source that outputs a concentric wave field. The law of the concentric wave field is again that the level decreases according to 1 / r. Thus, in order to calculate the actual amplitude state (without measurement), the signal generated by the speaker 808 directly on the speaker diaphragm or the level of this signal may be determined on the basis of the speaker characteristics and the component signal in the loudspeaker signal LSn, which goes back to the considered virtual source. Further, based on the coordinates of the point P and the location information on the position of the loudspeaker LSn, the distance between P and the loudspeaker diaphragm of the loudspeaker LSn can be calculated so that a level for the point P can be obtained on the basis of a component signal corresponding to the virtual source under consideration goes back and has been sent from the speaker LSn.

Eine entsprechende Prozedur kann für die anderen Lautsprecher des Lautsprecherarrays ebenfalls durchgeführt werden, so daß sich für den Punkt P eine Anzahl von "Teilpegelwerten" ergibt, die einen Signalbeitrag der betrachteten virtuellen Quelle darstellen, der von den einzelnen Lautsprechern zum Hörer am Punkt P gelangt ist. Durch Zusammenfassung dieser Teilpegelwerte wird dann der gesamte Ist-Amplitudenzustand am Punkt P erhalten, der dann, wie es ausgeführt worden ist, mit dem Soll-Amplitudenzustand verglichen werden kann, um einen Korrekturwert, der vorzugsweise multiplikativ ist, der jedoch prinzipiell additiv oder subtraktiv sein könnte, zu erhalten.A corresponding procedure may also be performed for the other loudspeakers of the loudspeaker array, so that the point P results in a number of "sub-level values" representing a signal contribution of the considered virtual source which has passed from the individual loudspeakers to the listener at point P. , By summing these sub-level values, the entire actual amplitude state is then obtained at the point P which, as stated, can then be compared to the desired amplitude state by a correction value, which is preferably multiplicative, but in principle additive or subtractive could get.

Erfindungsgemäß wird somit auf der Basis bestimmter Quellenformen der gewünschte Pegel für einen Punkt berechnet, also der Soll-Amplitudenzustand. Es wird bevorzugt, daß der Optimal-Punkt bzw. der Punkt im Vorführbereich, der betrachtet wird, sinnvollerweise in der Mitte des Wellenfeldsynthesesystems liegt. An dieser Stelle sei darauf hingewiesen, daß auch dann bereits eine Verbesserung erreicht wird, wenn der Punkt, der zur Berechnung des Soll-Amplitudenzustands zugrunde gelegt worden ist, nicht unmittelbar mit dem Punkt übereinstimmt, der zur Ermittlung des Ist-Amplitudenzustands verwendet worden ist. Nachdem eine möglichst gute Pegelartefaktreduktion für eine möglichst große Anzahl von Punkten im Vorführbereich angestrebt wird, ist es prinzipiell ausreichend, daß ein Soll-Amplitudenzustand für irgendeinen Punkt im Vorführbereich ermittelt wird, und daß ein Ist-Amplitudenzustand ebenfalls für irgendeinen Punkt im Vorführbereich ermittelt wird, wobei es jedoch bevorzugt wird, daß sich der Punkt, auf den der Ist-Amplitudenzustand bezogen ist, in einer Zone um den Punkt herum befindet, für den der Soll-Amplitudenzustand bestimmt worden ist, wobei diese Zone vorzugsweise kleiner als 2 Meter für normale Kinoanwendungen ist. Für beste Ergebnisse sollten diese Punkte im wesentlichen zusammenfallen.According to the invention, the desired level for one point is thus calculated on the basis of certain source forms, that is to say the desired amplitude state. It is preferred that the optimal point or point in the demonstration area being viewed is usefully located in the middle of the wave field synthesis system. It should be noted at this point that an improvement is already achieved even if the point which was used to calculate the setpoint amplitude state does not coincide directly with the point which was used to determine the actual amplitude state. Since the aim is to achieve the best possible artifact reduction for the largest possible number of points in the projection area, it is sufficient in principle for a desired amplitude state to be present for any point in the projection area is determined, and that an actual amplitude state is also determined for any point in the demonstration area, but it is preferred that the point to which the actual amplitude state is related, in a zone around the point for which the Desired amplitude state has been determined, this zone is preferably less than 2 meters for normal cinema applications. For best results, these points should essentially coincide.

Erfindungsgemäß wird somit nach Berechnung der Einzelpegel der Lautsprecher gemäß üblicher Wellenfeldsynthesealgorithmen der praktisch durch Überlagerung entstehende Pegel an diesem Punkt, der der Optimal-Punkt im Vorführbereich genannt wird, berechnet. Die Pegel der einzelnen Lautsprecher und/oder Quellen werden dann erfindungsgemäß mit diesem Faktor korrigiert. Für rechenzeiteffizienten Anwendungen wird es besonders bevorzugt, Korrekturfaktoren einmal für alle Positionen bei einer bestimmten Arrayanordnung zu berechnen und abzuspeichern, um dann im Betrieb auf die Tabelle zuzugreifen, um Rechenzeiteinsparungen zu erreichen.Thus, according to the present invention, after calculating the individual levels of the loudspeakers, according to conventional wave field synthesis algorithms, the level practically generated by superposition is calculated at this point, which is called the optimum point in the demonstration area. The levels of the individual speakers and / or sources are then corrected according to the invention with this factor. For computational time-efficient applications, it is particularly preferred to compute and store correction factors once for all positions in a particular array, and then access the table in operation to achieve computational time savings.

An dieser Stelle sei insbesondere auf Fig. 6b hingewiesen, in der die Einrichtung 914 zum Summieren eingezeichnet ist, um das Summensignal 916 ausgangsseitig zu liefern, während eingangsseitig die skalierten Objektsignale 912 erhalten werden, die, wie es aus Fig. 6b ersichtlich ist, durch Skalieren der Quellensignale der Quellen 1, 2, 3 mit den entsprechenden Audioobjektskalierungswerten bzw. Korrekturwerten F1, F2, F3 erhalten werden. An dieser Stelle sei ferner darauf hingewiesen, daß für die vorliegende Erfindung der Tieftonkanalerzeugung die in Fig. 6b gezeigte Version bevorzugt wird, bei der bereits eine Skalierung bzw. Manipulation bzw. Korrektur auf Audioobjektsignalebene und nicht auf Komponentenebene, wie in Fig. 6a gezeigt, durchgeführt wird. Dennoch könnte auch das in Fig. 6a gezeigte Konzept der Korrektur auf Komponentenebene mit dem erfindungsgemäßen Konzept der Tieftonkanalerzeugung dadurch kombiniert werden, daß zumindest die Berechnung der Audioobjektskalierungswerte F1, F2, ..., Fn nur einmal durchgeführt werden muß.Attention is drawn in particular to FIG. 6b, in which the means 914 for summation is drawn in order to deliver the sum signal 916 on the output side, while on the input side the scaled object signals 912 are obtained which, as can be seen from FIG Scaling of the source signals of the sources 1, 2, 3 with the corresponding audio object scaling values or correction values F1, F2, F3 are obtained. It should also be noted that for the present invention of woofer generation, the version shown in Fig. 6b is preferred, in which already a scaling or manipulation or correction on audio object signal level and not on component level, as shown in Fig. 6a, is carried out. Nevertheless, the concept of component-level correction shown in FIG According to the concept of low-frequency channel generation according to the invention, at least the calculation of the audio object scaling values F1, F2,..., Fn must be performed only once.

Erfindungsgemäß erfolgt die Skalierung des Subwooferkanals somit ähnlich zu der Skalierung der Gesamtlautstärke aller Lautsprecher in dem Bezugspunkt des Wellenfeldsynthesewiedergabesystems. Das erfindungsgemäße Verfahren eignet sich somit für beliebig viele Subwooferlautsprecher, die alle so skaliert werden, daß sie im Mittelpunkt des Wellenfeldsynthesesystems eine Referenzlautstärke erreichen. Die Referenzlautstärke hängt hierbei nur von der Position der virtuellen Schallquelle ab. Mit den bekannten Abhängigkeiten von Entfernung des Klangobjekts zum Referenzpunkt und der damit verbundenen Dämpfung der Lautstärke wird vorzugsweise die Einzellautstärke des jeweiligen Klangobjekts für jeden Subwooferkanal berechnet werden. Die Verzögerung jeder Quelle berechnet sich aus dem Abstand der virtuellen Quelle zum Bezugspunkt der Lautstärkenskalierung. Jeder Subwooferlautsprecher gibt die Summe aller so umgerechneten Klangobjekte wieder. Wie sich die Einzellautstärken der Subwooferlautsprecher addieren, hängt von deren Position ab. Die bevorzugte Positionierung von Subwooferlautsprechern und die Auswahl der Anzahl von erforderlichen Subwoofern sind in den bereits erwähnten Fachveröffentlichungen Welti, Todd, "How Many Subwoofers are Enough", 112 th AES Conv. Paper 5602, Mai 2002, München, Deutschland, Martens, "The impact of decorrelated low-frequency reproduction on auditory spatial imagery: Are two subwoofers better than one?", 16th AES Conf. Paper, April 1999, Rovaniemi, Finnland, dargelegt.According to the invention, the scaling of the subwoofer channel is thus similar to the scaling of the overall volume of all loudspeakers in the reference point of the wave field synthesis display system. The inventive method is thus suitable for any number of subwoofer loudspeakers, which are all scaled so that they reach a reference level in the center of the wave field synthesis system. The reference volume depends only on the position of the virtual sound source. With the known dependencies of distance of the sound object to the reference point and the associated attenuation of the volume, the single volume of the respective sound object for each subwoofer channel is preferably calculated. The delay of each source is calculated from the distance of the virtual source to the reference point of the volume scaling. Each subwoofer speaker reflects the sum of all converted sound objects. How the single subwoofer speakers add up depends on their position. The preferred positioning of subwoofer speakers and the selection of the number of required subwoofers are the already mentioned specialist publications Welti, Todd, "How Many Subwoofers are Enough", 112 th AES Conv. Paper 5602, May 2002, Munich, Germany, Martens, "The impact of decorrelated low-frequency reproduction on auditory spatial imagery: are two subwoofers better than one?", 16 th AES Conf. Paper, April 1999, Rovaniemi, Finland.

Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Erzeugen eines Tieftonkanals, wie es anhand von Fig. 9 dargestellt ist, in Hardware oder in Software implementiert werden.Depending on the circumstances, the method according to the invention for generating a bass channel, as illustrated with reference to FIG. 9, can be implemented in hardware or in software.

Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Pegel-Korrigieren, wie es in Fig. 1 dargestellt ist, in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, daß das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des Verfahrens zum Pegel-Korrigieren, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.Depending on the circumstances, the level correction method according to the invention, as shown in FIG. 1, can be implemented in hardware or in software. The implementation may be on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which may interact with a programmable computer system such that the method is executed. In general, the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method for level correction when the computer program product runs on a computer. In other words, the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Claims (26)

  1. An apparatus for generating a low-frequency channel (940, 942, 944) for a low-frequency loudspeaker (1106, 1110), comprising:
    a means (900) for providing a plurality of audio objects, an audio object having an object signal and an object description associated with it;
    a means (906) for calculating an audio object scaling value for each audio object in dependence on the object description (904);
    a means (910) for scaling each object signal with an associated audio object scaling value (908) so as to obtain a scaled object signal (912) for each audio object;
    a means (914) for summing the scaled object signals so as to obtain a composite signal (916); and
    a means (918) for providing the low-frequency channel (920, 940, 942, 944) for the low-frequency loudspeaker (1106, 1110) on the basis of the composite signal (916).
  2. The apparatus as claimed in claim 1, wherein the low-frequency loudspeaker is arranged at a predetermined loudspeaker position (1108, 1112), the predetermined loudspeaker position (1108) differing from a reference playback position (100), and
    wherein the means (918) for providing the low-frequency channel is configured to calculate a loudspeaker scaling value for the low-frequency loudspeaker in dependence on the predetermined loudspeaker position (1108), so that a low-frequency signal at the reference playback position (1100) has a loudness which corresponds to a loudness of the composite signal (916) within a predetermined tolerance range, and
    wherein the means (918) for providing is further configured to scale the composite signal (916) with the loudspeaker scaling value so as to generate the low-frequency channel (920, 940, 942, 944).
  3. The apparatus as claimed in claims 1 or 2, wherein each object signal is a low-frequency signal having an upper cutoff frequency smaller than or equal to 250 Hz.
  4. The apparatus as claimed in claims 1 or 2, wherein the composite signal (916) has an upper cutoff frequency higher than 8 kHz, and
    wherein the means (918) for providing the low-frequency channel is configured to conduct a low-pass filtering at a cutoff frequency smaller than or equal to 250 Hz.
  5. The apparatus as claimed in any of the previous claims,
    wherein an audio object of the plurality of audio objects includes an object description which includes an audio object position, and
    wherein the means (906) for calculating an audio object scaling value for the audio object is configured to perform the audio object scaling value in dependence on the audio object position of the audio object and on a reference playback position (1100), and in dependence on an object loudness associated with the audio object.
  6. The apparatus as claimed in any of the previous claims,
    wherein a plurality of low-frequency channels for a plurality of low-frequency loudspeakers may be generated at predetermined low-frequency loudspeaker positions, and
    wherein the means (918) for providing is configured to calculate a loudspeaker scaling value for each low-frequency loudspeaker in dependence on the position of a low-frequency loudspeaker and in dependence on a number of further low-frequency loudspeakers,
    so that a low-frequency signal which is superposition of output signals of all low-frequency loudspeakers at the reference position (1100) has a loudness which corresponds to a loudness of the composite signal (916) within a predetermined tolerance range.
  7. The apparatus as claimed in any of the previous claims,
    wherein the means (906) for calculating audio object scaling values is further configured to calculate an audio object delay value for each audio object, the former depending on an object position and a reference playback position, and
    wherein the means (914) for summing is configured to delay each object signal or each scaled object signal by the respective audio object delay value prior to summing.
  8. The apparatus as claimed in any of the previous claims,
    wherein the means (918) for providing is configured to calculate, for a low-frequency loudspeaker, a low-frequency loudspeaker delay value which depends on a distance of the low-frequency loudspeaker from the reference playback position, and
    wherein the means (918) for providing is further configured to take into account the low-frequency loudspeaker delay value when providing the low-frequency channel.
  9. The apparatus as claimed in claim 2, wherein several low-frequency loudspeakers are provided, and wherein the means (918) for providing is further configured to calculate the loudspeaker scaling values such that for each low-frequency loudspeaker, a loudspeaker scaling value in accordance with the following equation is obtained: ( a 1 + a 2 + + a n ) s = LSref ,
    Figure imgb0002

    wherein LSref is a reference loudness at a reference playback position (1100), wherein s is the composite signal (916), wherein a1 is the loudspeaker scaling value of a first low-frequency loudspeaker, wherein a2 is a loudspeaker scaling value of a second low-frequency loudspeaker, and wherein an is a loudspeaker scaling value of an nth low-frequency loudspeaker.
  10. The apparatus as claimed in claim 9, wherein the loudspeaker scaling value of a low-frequency loudspeaker depends on a distance of the low-frequency loudspeaker from the reference playback position (1100).
  11. The apparatus as claimed in any of the previous claims, which is configured to operate in a wave-field synthesis system with a wave-field synthesis module (810) and an array (800) of loudspeakers (808) for exposing a presentation area (802) to sound, the wave-field synthesis module being configured to receive an audio signal associated with a virtual sound source, as well as source position information associated with the virtual sound source, and to calculate component signals for the loudspeakers due to the virtual source while taking into account loudspeaker position information, and
    wherein the means (906) for calculating the audio object scaling values (908) includes a means (100) for determining a correction value as an audio object scaling value, the means (100) for determining being configured to calculate the audio object scaling value such that it is based on a target amplitude state in the presentation area, the target amplitude state depending on a position of the virtual source or a type of the virtual source, and which audio object scaling value is further based on an actual amplitude state in the presentation area which is based on the component signals for the loudspeakers due to the virtual source.
  12. The apparatus as claimed in claim 11, wherein the means (100) for determining the correction value (104) is configured to calculate (500) the target amplitude state for a predetermined point in the presentation area, and to determine (502) the actual amplitude state for a zone in the presentation area which equals the predetermined point or extends around the predetermined point within a tolerance range.
  13. The apparatus as claimed in claim 12, wherein the predetermined tolerance range is a sphere having a radius smaller than 2 meters around the predetermined point.
  14. The apparatus as claimed in any of claims 11 to 13,
    wherein the virtual source is a source for plane waves, and wherein the means (100) for determining the correction value is configured to determine a correction value wherein an amplitude state of the audio signal associated with the virtual source equals the target amplitude state.
  15. The apparatus as claimed in any of claims 11 to 14,
    wherein the virtual source is a point source, and wherein the means (100) for determining the correction factor is configured to operate on the basis of a target amplitude state which equals a quotient of an amplitude state of the audio signal associated with the virtual source, and the distance between the presentation area and the position of the virtual source.
  16. The apparatus as claimed in any of claims 11 to 15,
    wherein the means (100) for determining the correction value is configured to operate on the basis of an actual amplitude state, the determination of which takes into account a loudspeaker transmission function of the loudspeaker (808).
  17. The apparatus as claimed in any of claims 11 to 16,
    wherein the means (100) for determining the correction factor is configured to calculate, for each loudspeaker, a damping value which depends on the position of the loudspeaker and on a point to be contemplated in the presentation area, and wherein the means (100) for determining is further configured to weight the component signal of a loudspeaker with the damping value for the loudspeaker so as to obtain a weighted component signal and so as to further sum component signals or component signals, weighted accordingly, from other loudspeakers so as to obtain the actual amplitude state at the point contemplated on which the correction value (104) is based.
  18. The apparatus as claimed in any of claims 11 to 17,
    wherein the means (106) for manipulating is configured to use that correction value (104) as a correction factor which equals a quotient of the actual amplitude state and the target amplitude state.
  19. The apparatus as claimed in claim 18, wherein the means (106) for manipulating is configured to scale the audio signal associated with the virtual source with the correction factor prior to the calculation of the component signals by the wave-field synthesis module (810).
  20. The apparatus as claimed in any of claims 11 to 19,
    wherein the target amplitude state is a target sound level, and wherein the actual amplitude state is an actual sound level.
  21. The apparatus as claimed in claim 20, wherein the target sound level and the actual sound level are based on a target sound intensity and an actual sound intensity, respectively, the sound intensity being a measure of an energy falling onto a reference area within a period of time.
  22. The apparatus as claimed in claims 20 or 21, wherein the means (100) for determining the correction value is configured to calculate the target amplitude state in that samples of the audio signal associated with the virtual source are squared sample by sample, and in that a number of squared samples, the number being a measure of an observation time, are summed, and
    wherein the means (100) for determining the correction value is further configured to calculate the actual amplitude state in that each component signal is squared sample by sample, and in that a number of squared samples, which equals the number of summed squared samples for calculating the target amplitude state, are added up, and wherein addition results from the component signals are further added up so as to obtain a measure of the actual amplitude state.
  23. The apparatus as claimed in any of claims 11 to 22,
    wherein the means (100) for determining the correction value (104) comprises a look-up table (400) which has position/correction-factor value pairs stored therein, a correction factor of a value pair depending on an arrangement of the loudspeakers in the array of loudspeakers, and on a position of a virtual source, and the correction factor being selected such that a deviation between an actual amplitude state due to the virtual source at the associated position and a target amplitude state is at least reduced when the correction factor is used by the means (106) for manipulating.
  24. The apparatus as claimed in claim 23, wherein the means (100) for determining is further configured to interpolate (402) a current correction factor for a current position of the virtual source from one or several correction factors from position/correction-factor value pairs, whose position(s) is/are located adjacent to the current position.
  25. A method for generating a low-frequency channel (940, 942, 944) for a low-frequency loudspeaker (1106, 1110), comprising:
    providing (900) a plurality of audio objects, an audio object having an object signal and an object description associated with it;
    calculating (906) an audio object scaling value for each audio object in dependence on the object description (904);
    scaling (910) each object signal with an associated audio object scaling value (908) so as to obtain a scaled object signal (912) for each audio object;
    summing (914) the scaled object signals so as to obtain a composite signal (916); and
    providing (918) the low-frequency channel (920, 940, 942, 944) for the low-frequency loudspeaker (1106, 1110) on the basis of the composite signal (916).
  26. A computer program having a program code for performing the method as claimed in claim 25, when the program runs on a computer.
EP04797996A 2003-11-26 2004-11-18 Device and method for producing a low-frequency channel Active EP1671516B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10355146A DE10355146A1 (en) 2003-11-26 2003-11-26 Apparatus and method for generating a bass channel
PCT/EP2004/013130 WO2005060307A1 (en) 2003-11-26 2004-11-18 Device and method for producing a low-frequency channel

Publications (2)

Publication Number Publication Date
EP1671516A1 EP1671516A1 (en) 2006-06-21
EP1671516B1 true EP1671516B1 (en) 2007-02-14

Family

ID=34638189

Family Applications (1)

Application Number Title Priority Date Filing Date
EP04797996A Active EP1671516B1 (en) 2003-11-26 2004-11-18 Device and method for producing a low-frequency channel

Country Status (6)

Country Link
US (1) US8699731B2 (en)
EP (1) EP1671516B1 (en)
JP (1) JP4255031B2 (en)
CN (1) CN100588286C (en)
DE (2) DE10355146A1 (en)
WO (1) WO2005060307A1 (en)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033239A1 (en) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for controlling a plurality of loudspeakers by means of a graphical user interface
DE102005033238A1 (en) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for driving a plurality of loudspeakers by means of a DSP
US8180067B2 (en) 2006-04-28 2012-05-15 Harman International Industries, Incorporated System for selectively extracting components of an audio input signal
US8036767B2 (en) 2006-09-20 2011-10-11 Harman International Industries, Incorporated System for extracting and changing the reverberant content of an audio input signal
DE102006053919A1 (en) * 2006-10-11 2008-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a number of speaker signals for a speaker array defining a playback space
JP4962047B2 (en) * 2007-03-01 2012-06-27 ヤマハ株式会社 Sound playback device
US9031267B2 (en) * 2007-08-29 2015-05-12 Microsoft Technology Licensing, Llc Loudspeaker array providing direct and indirect radiation from same set of drivers
JP5338053B2 (en) * 2007-09-11 2013-11-13 ソニー株式会社 Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method
DE102007059597A1 (en) 2007-09-19 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus and method for detecting a component signal with high accuracy
KR100943215B1 (en) * 2007-11-27 2010-02-18 한국전자통신연구원 Apparatus and method for reproducing surround wave field using wave field synthesis
KR101461685B1 (en) 2008-03-31 2014-11-19 한국전자통신연구원 Method and apparatus for generating side information bitstream of multi object audio signal
US8620009B2 (en) * 2008-06-17 2013-12-31 Microsoft Corporation Virtual sound source positioning
WO2011044064A1 (en) 2009-10-05 2011-04-14 Harman International Industries, Incorporated System for spatial extraction of audio signals
US8553722B2 (en) * 2011-12-14 2013-10-08 Symboll Technologies, Inc. Method and apparatus for providing spatially selectable communications using deconstructed and delayed data streams
KR20140046980A (en) * 2012-10-11 2014-04-21 한국전자통신연구원 Apparatus and method for generating audio data, apparatus and method for playing audio data
JP5590169B2 (en) * 2013-02-18 2014-09-17 ソニー株式会社 Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method
WO2014171706A1 (en) * 2013-04-15 2014-10-23 인텔렉추얼디스커버리 주식회사 Audio signal processing method using generating virtual object
EP3474575B1 (en) * 2013-06-18 2020-05-27 Dolby Laboratories Licensing Corporation Bass management for audio rendering
EP3028476B1 (en) 2013-07-30 2019-03-13 Dolby International AB Panning of audio objects to arbitrary speaker layouts
DE102013218176A1 (en) * 2013-09-11 2015-03-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. DEVICE AND METHOD FOR DECORRELATING SPEAKER SIGNALS
WO2015147434A1 (en) * 2014-03-25 2015-10-01 인텔렉추얼디스커버리 주식회사 Apparatus and method for processing audio signal
JP5743003B2 (en) * 2014-05-09 2015-07-01 ソニー株式会社 Wavefront synthesis signal conversion apparatus and wavefront synthesis signal conversion method
JP2016100613A (en) * 2014-11-18 2016-05-30 ソニー株式会社 Signal processor, signal processing method and program
US9830927B2 (en) * 2014-12-16 2017-11-28 Psyx Research, Inc. System and method for decorrelating audio data
EP3335436B1 (en) 2015-08-14 2021-10-06 DTS, Inc. Bass management for object-based audio
US9794689B2 (en) * 2015-10-30 2017-10-17 Guoguang Electric Company Limited Addition of virtual bass in the time domain
WO2018189819A1 (en) * 2017-04-12 2018-10-18 ヤマハ株式会社 Information processing device, information processing method, and program
WO2019067904A1 (en) * 2017-09-29 2019-04-04 Zermatt Technologies Llc Spatial audio upmixing
CN111869239B (en) * 2018-10-16 2021-10-08 杜比实验室特许公司 Method and apparatus for bass management
US11968518B2 (en) 2019-03-29 2024-04-23 Sony Group Corporation Apparatus and method for generating spatial audio
JP2021048500A (en) * 2019-09-19 2021-03-25 ソニー株式会社 Signal processing apparatus, signal processing method, and signal processing system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8800745A (en) * 1988-03-24 1989-10-16 Augustinus Johannes Berkhout METHOD AND APPARATUS FOR CREATING A VARIABLE ACOUSTICS IN A ROOM
JPH02296498A (en) 1989-05-11 1990-12-07 Matsushita Electric Ind Co Ltd Stereophonic reproducing device and television set incorporating stereophonic deproducing device
JP3067140B2 (en) 1989-11-17 2000-07-17 日本放送協会 3D sound reproduction method
GB9204485D0 (en) * 1992-03-02 1992-04-15 Trifield Productions Ltd Surround sound apparatus
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
US6240189B1 (en) * 1994-06-08 2001-05-29 Bose Corporation Generating a common bass signal
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JPH1063470A (en) * 1996-06-12 1998-03-06 Nintendo Co Ltd Souond generating device interlocking with image display
DE19739425A1 (en) 1997-09-09 1999-03-11 Bosch Gmbh Robert Method and arrangement for reproducing a sterophonic audio signal
US6349285B1 (en) * 1999-06-28 2002-02-19 Cirrus Logic, Inc. Audio bass management methods and circuits and systems using the same
JP2001224099A (en) * 2000-02-14 2001-08-17 Pioneer Electronic Corp Sound field correction method in audio system
GB0203895D0 (en) * 2002-02-19 2002-04-03 1 Ltd Compact surround-sound system

Also Published As

Publication number Publication date
CN100588286C (en) 2010-02-03
JP4255031B2 (en) 2009-04-15
US20060280311A1 (en) 2006-12-14
DE502004002926D1 (en) 2007-03-29
DE10355146A1 (en) 2005-07-07
EP1671516A1 (en) 2006-06-21
WO2005060307A1 (en) 2005-06-30
US8699731B2 (en) 2014-04-15
JP2007512740A (en) 2007-05-17
CN1906971A (en) 2007-01-31

Similar Documents

Publication Publication Date Title
EP1671516B1 (en) Device and method for producing a low-frequency channel
EP1637012B1 (en) Wave field synthesis device and method for driving an array of loudspeakers
EP1525776B1 (en) Device for correcting the level in a wave field synthesis system
EP1872620B9 (en) Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface
EP1576847B1 (en) Audio playback system and method for playing back an audio signal
EP1800517B1 (en) Device and method for controlling a public address system, and a corresponding public address system
EP1782658B1 (en) Device and method for controlling a plurality of loudspeakers by means of a dsp
EP1972181A1 (en) Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics
EP1606975B1 (en) Device and method for calculating a discrete value of a component in a loudspeaker signal
EP2754151B1 (en) Device, method and electro-acoustic system for prolonging a reverberation period
DE10254470A1 (en) Apparatus and method for determining an impulse response and apparatus and method for presenting an audio piece

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20060509

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): DE FR GB NL

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

DAX Request for extension of the european patent (deleted)
RBV Designated contracting states (corrected)

Designated state(s): DE FR GB NL

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: FRAUNHOFER-GESELLSCHAFT ZUR FOERDERUNG DER ANGEWAN

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE FR GB NL

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REF Corresponds to:

Ref document number: 502004002926

Country of ref document: DE

Date of ref document: 20070329

Kind code of ref document: P

GBT Gb: translation of ep patent filed (gb section 77(6)(a)/1977)

Effective date: 20070423

ET Fr: translation filed
PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20071115

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 14

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230524

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20231122

Year of fee payment: 20

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20231123

Year of fee payment: 20

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20231122

Year of fee payment: 20

Ref country code: DE

Payment date: 20231120

Year of fee payment: 20