EP1972181B1 - Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics - Google Patents

Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics Download PDF

Info

Publication number
EP1972181B1
EP1972181B1 EP07700228A EP07700228A EP1972181B1 EP 1972181 B1 EP1972181 B1 EP 1972181B1 EP 07700228 A EP07700228 A EP 07700228A EP 07700228 A EP07700228 A EP 07700228A EP 1972181 B1 EP1972181 B1 EP 1972181B1
Authority
EP
European Patent Office
Prior art keywords
aliasing
wave field
aliasing filter
field synthesis
virtual sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
EP07700228A
Other languages
German (de)
French (fr)
Other versions
EP1972181A1 (en
Inventor
Joachim Deguara
René RODIGAST
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP1972181A1 publication Critical patent/EP1972181A1/en
Application granted granted Critical
Publication of EP1972181B1 publication Critical patent/EP1972181B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/09Electronic reduction of distortion of stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Definitions

  • the present invention relates to wave field synthesis systems, and more particularly to aliasing correction in wave field synthesis systems.
  • WFS wave field synthesis
  • Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront.
  • a so-called speaker array any shape of an incoming wavefront.
  • the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap.
  • the contribution to each speaker is calculated separately for each source and the resulting signals added together.
  • reflections can also be reproduced as additional sources via the loudspeaker array. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
  • the advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible.
  • the direction and distance of sound sources are reproduced very accurately.
  • virtual sound sources can even be positioned between the real speaker array and the listener.
  • wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.
  • the technique of wave field synthesis can also be used advantageously to supplement a visual perception with a corresponding spatial audio perception.
  • production in virtual studios focused on providing an authentic visual impression of the virtual scene.
  • the matching to the image acoustic impression is usually impressed by manual operations in the so-called post-production subsequently the audio signal or classified as too complex and time-consuming in the realization and therefore neglected. This usually leads to a contradiction of the individual sense sensations, which results in that the designed space, d. H. the designed scene is perceived as less authentic.
  • Wave Field Synthesis In the audio field, the technique of Wave Field Synthesis (WFS) can be used to achieve a good spatial sound for a large listener area.
  • wave field synthesis is based on the principle of Huygens, according to which wavefronts can be formed and built up by superimposing elementary waves. After mathematically exact theoretical description, infinitely many sources in infinitely small distance would have to be used for the generation of the elementary waves. Practically, however, many speakers are finally used at a finite distance from each other. Each of these speakers is driven according to the WFS principle with an audio signal from a virtual source having a particular delay and a certain level. Levels and delays are usually different for all speakers.
  • the wave field synthesis system operates on the basis of the Huygens principle and reconstructs a given waveform of, for example, a virtual source located at a certain distance from a demonstration area or a listener in the show area by a plurality of single waves .
  • the wave field synthesis algorithm thus obtains information about the actual position of a single loudspeaker from the loudspeaker array, in order then to calculate a component signal for this single loudspeaker, which then ultimately has to radiate this loudspeaker so that the listener can overlay the loudspeaker signal from the loudspeaker signal a speaker with the speaker signals of the other active speakers performs a reconstruction in that the listener has the impression that he is not "sonicated" by many individual speakers, but only from a single speaker at the position of the virtual source.
  • each virtual source for each loudspeaker that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc.
  • the contribution from each virtual source for each loudspeaker is calculated to then add up the component signals finally get the actual speaker signal.
  • superimposing the loudspeaker signals of all active loudspeakers on the listener would mean that the listener does not feel that he is being sonicated by a large array of loudspeakers, but that the sound he hears is merely from three sound sources positioned at specific positions, which are equal to the virtual sources.
  • the computation of the component signals usually takes place in practice by applying a delay and a scaling value to the audio source assigned to a virtual source, depending on the position of the virtual source and the position of the loudspeaker, at a particular time, a delayed and / or scaled audio signal the virtual source that directly represents the loudspeaker signal when there is only one virtual source, or that adds to other component signals for the considered loudspeaker from other virtual sources then to the loudspeaker signal for the considered loudspeaker.
  • Typical wave field synthesis algorithms work regardless of how many speakers are present in the speaker array are.
  • the underlying theory of Wave Field Synthesis is that any sound field can be accurately reconstructed by an infinite number of individual speakers, with the individual individual speakers arranged infinitely close to each other. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there are a limited number of speakers, which are also arranged at certain predetermined distances from each other. Thus, in real systems, only an approximation to the actual waveform that would occur if the virtual source were actually present, would be a real source.
  • the object of the present invention is to provide a concept for aliasing correction in a wave field synthesis system which reduces quality variations in the perceived sound.
  • the present invention is based on the finding that aliasing correction in a wave field synthesis system is improved by determining the virtual source specific aliasing filter property using the source position information.
  • This aliasing filter property which is e.g. B. the aliasing frequency can be determined using the source position information.
  • This aliasing filter property is used for an adaptive anti-aliasing filter for adaptively filtering the audio signal assigned to the sources or the component signals assigned to the source.
  • a listening point in the playback room is selected, and the wave-field synthesis module provides scaling and delay values for the individual speakers corresponding to a virtual source.
  • the amplitude value and the time value of the arrival of the pulse at the listening point are calculated for a given pulse.
  • the individual impulses of the individual loudspeakers do not arrive simultaneously at the listening point and instead supply time signals and time values. These time signals are transformed into a spectral representation, from which the aliasing frequency is determined.
  • This aliasing frequency marks the area between a fluctuating one Behavior of the spectral representation and an increasing behavior to lower frequencies.
  • This aliasing frequency is now used as input for an anti-aliasing filter, which corrects the level below the aliasing frequency, eg attenuates with 3dB per octave.
  • each virtual source is assigned an aliasing frequency. This makes it possible to dynamically filter even moving virtual sources and thus discoloration due to the movement is suppressed. In previously used static filters, this is not possible and as a result these static filters lead to a distortion of the sound during a movement of the virtual sources.
  • the aliasing filter in a computer system one can perform the filtering in real time with the movement of the virtual sources. In order to save computing time, in a further embodiment it is not possible to calculate the aliasing frequency continuously for all possible positions of the virtual source, but instead to determine it only for discrete points. These obtained aliasing frequencies may be e.g. be included in a table so that further calculations are omitted. The quality achieved is given by the density of the discrete points.
  • aliasing filtering can also be performed with respect to different listening points. By averaging these different aliasing frequencies associated with a virtual source, one can obtain an average aliasing frequency for the entire listening room. This averaged aliasing frequency, in turn, changes as the position of the virtual source changes, and can be corrected as previously described, depending on the position of the virtual source.
  • this bass tone boost is dynamic and depends on different factors. These are z. B. the speaker density and the angle of incidence of the virtual sound sources.
  • the aliasing frequency changes with the positioning of the virtual sound sources and is therefore dynamic. This dynamic is not taken into account in the current calculation.
  • a major disadvantage of previous WFS systems is that swelling movements are perceivable as tone color changes. These are the result of the static filter and the dynamic change of the aliasing frequency and the bass boost. These tone color changes are particularly significant when the virtual source is parallel to the speakers.
  • Another disadvantage of the existing technology is that different speaker setups (with different speaker distances) affect the aliasing frequency and the bass boost, which until now had to be adjusted manually on the respective setup.
  • the wave field synthesis system has a speaker array 700 placed with respect to a demonstration area 702.
  • a demonstration area 702. this includes in Fig. 7 shown speaker array which is a 360 ° array, four array sides 700a, 700b, 700c and 700d. If the demonstration area 702 z.
  • the cinema screen is on the same side of the screening area 702 on which also the sub-array 700 c is arranged with respect to the conventions front / back or right / left. In this case, the observer who is sitting at the so-called optimal point P in the demonstration area 702 would see to the front, ie to the screen.
  • Each loudspeaker array consists of a number of different individual loudspeakers 708, each of which is driven by its own loudspeaker signals transmitted by a wave field synthesis module 710 via an in-line loudspeaker signal Fig. 7 only schematically shown data bus 712 are provided.
  • the wave field synthesis module is configured to use the information about e.g. B.
  • the wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.
  • the following embodiments of the present invention may in principle be performed for each point P in the demonstration area.
  • the optimum point can thus lie anywhere in the demonstration area 702. It can also be several optimal points, z. B. on an optimal line, give. However, in order to obtain the best possible ratios for as many points as possible in the demonstration area 702, it is preferable to use the optimum point or the optimal line in the middle or at the center of gravity of the wave field synthesis system, which is defined by the speaker sub-arrays 700a, 700b, 700c, 700d.
  • FIG. 12 is a block diagram of the inventive apparatus for aliasing correction in a wave-field synthesis system, referring to FIG Fig. 7 has been set out.
  • a wave field synthesis module 100 having an input for the audio signals 102 of the virtual sources, an input for the position data 104 of the virtual sources, an input for the position data of the speakers 106 and optionally other inputs 108, the z. B. provide information about the room acoustics has.
  • the wave-field synthesis module 100 provides the component signals 110 as well as the corresponding delay and scale values for the individual speakers.
  • AFE source-specific aliasing filter characteristic
  • the aliasing filter property 130 as well as the component signals 110 serve as inputs to the adaptive anti-aliasing filter 140 for the virtual sources. After filtering the component signals 110, the corresponding loudspeaker signals 160 are created in a means for combining the component signals 150.
  • Fig. 1b For example, an apparatus according to the invention is shown in which the component signals 110 are not filtered by the adaptive anti-aliasing filter 140, but the audio signals 102 are filtered in the virtual source adaptive anti-aliasing filter 140.
  • the filtered audio signal 165 is input to the wave field synthesis module 100 to generate filtered component signals and to generate the corresponding loudspeaker signals 160 in the component signal combining unit 150.
  • the wave field synthesis module 100 receives an audio signal and position information from each virtual source.
  • this figure shows the audio signal of the first source 212 and the position of the first source 214, the audio signal of the second source 222 and the position information of the second source 224 as well as the audio signal of the last source 232 and the position information of the last source 234.
  • the wave field synthesis module 100 determines for each virtual source the component signals for each speaker.
  • the component signals of the first virtual source KS11 to KSn 240, the second virtual source KS21 to KS2n 250 and the component signals of the last virtual source KSm1 to KSmn 260 are shown by way of example.
  • Fig. 3a shows a block diagram of a preferred apparatus according to the invention for determining the aliasing frequency.
  • the wave field synthesis module 100 generates a wave field synthesis scaling value (WFS-SW) and a wave field synthesis delay value (WFS-VW) 310 for a virtual source. From the position of the listening point 320 and the position information of the speakers 330, a propagation delay value (AVZW) is generated in the device 340. and a spread scaling value (ASKW). These values, along with the WFS-SW and the WFS-VW 310, serve as input to the device 350, which determines a total scaling value (GSW) as well as a total delay value (GVW).
  • WFS-SW wave field synthesis scaling value
  • WFS-VW wave field synthesis delay value
  • a time signal and corresponding time values are determined in the device 360, which is converted into a spectral representation in the device 370. Finally, this spectral representation is evaluated in the device 380 and a corresponding aliasing frequency 390 is determined.
  • each speaker 708 is shown, all of which are fed with their own loudspeaker signal, generated by the wave field synthesis module 100. So each speaker can be modeled as a point wave that outputs a concentric wave field. Following the law of the concentric wave field, the level of the sound field decreases with the distance r to the loudspeakers by a factor of 1 / r 2 . This results in a dependence of 1 / r on the signal. Taking into account the propagation velocity of the sound wave, it can thus be determined when (propagation delay value) with respect to the loudspeaker which signal arrives in which scaling (propagation scaling value) at the listening point P.
  • FIG. 11 shows a concrete example of a 10-speaker demonstration area 702, from which the loudspeakers 4 to 7 transmit a virtual source signal having a particular scaling value and delay 392.
  • a total delay and a total scaling value at the listening point 394 After taking into account the time delay and the attenuation due to the propagation from the loudspeakers to the listening point P, one obtains for each loudspeaker a total delay and a total scaling value at the listening point 394. If these total scaling values are plotted according to the total delay values as the time coordinate, the time signal results at the bottom left in Fig. 3c , which is called IR (impulse response) at the listening point.
  • IR impulse response
  • the first signal with the smallest time value corresponds to the signal emitted by loudspeaker 6, which according to table 392 has a scaling value of 0.8 and a delay value of 10 ms.
  • the second signal in 394 is the signal from loudspeaker 5, which according to Table 392 has a scaling value of 0.7 and a delay value of 12ms.
  • the signals then follow from the loudspeaker 4 and from the loudspeaker 7, whose scaling and delay values are also indicated in table 392.
  • This time signal is converted into a spectral representation 396 characterized by two regions. At high frequencies, the spectral representation shows a fluctuating behavior, and too low Frequencies an increasing behavior. In the transition area between the areas is the aliasing frequency.
  • This aliasing frequency then serves as an input signal for a corresponding correction filter 398. This filter serves to bring about a lowering of the low frequency components by, for example, 3dB per octave.
  • Fig. 4 shows a block diagram in which the determination of the aliasing frequencies for different virtual sources is shown.
  • Wave field synthesis module 100 provides scaling and delay values for each virtual source and speaker. In the example shown here, both the scaling and delay values of the first virtual source 402 and the scaling and delay values of the last virtual source 404 are shown. By combining these values with the propagation delay values and the propagation scaling values, a set of data is thus obtained for each virtual source, which in turn serves as inputs to the means 350 for determining the total scaling values and the total delay values. From this, the device 360 determines separately for each virtual source corresponding time signals and time values, which in turn are converted into a spectral representation in the device 370. These spectral representations will be evaluated in the device 380 so as to obtain aliasing frequencies 410 for each virtual source.
  • Fig. 5 shows a block diagram in which aliasing frequencies are determined for each Ab stealddling and then averaging an average aliasing frequency is determined.
  • the scaling values and delay values 310 for a virtual source serve as inputs to a means 510 for determining a source-specific aliasing filter characteristic for a first listening point, and as inputs to a means for determining a source-specific aliasing filter characteristic for a second listening point 520.
  • the scaling and delay values are also determined in a corresponding means for determining a source-specific aliasing filter property.
  • the filter characteristics thus obtained for each listening point are averaged in the device 530 over all the listening points. This gives the entire listening area 702 an aliasing filter property for each virtual source.
  • This averaged aliasing filter property may be e.g. B. be an average aliasing filter frequency.
  • Fig. 6 shows a block diagram of an adaptive filter for virtual sources.
  • the inputs to this virtual source adaptive filter 140 are both the aliasing frequencies f 1 through f n and the component signals 110, those with KS11 through KS1n for the first virtual source, with KS21 through KS2n for the second virtual source, and with KSm1 through KSmn for the last virtual source are designated.
  • the output signals of the adaptive filter 140 are modified component signals 610, which in turn serve as input to the means 150 for combining the component signals to finally provide the loudspeaker signals 160.
  • the aliasing frequency determined in this algorithm is the dynamically changing frequency below which WFS playback produces a bass boost of, for example, 3dB per octave. Above this frequency, aliasing artifacts lead to frequency cancellations and comb filter effects. As already stated, a dynamic filter is calculated by analyzing this frequency, which compensates the bass boost source dependent. Depending on the speaker setup used, this boost does not always correspond to the theoretical value of 3dB per octave. This dynamic correction filter is constantly updated during source movements. The result is the optimal bass correction for the respective source position.
  • the source position-dependent scaling and delay values of the signal are constantly determined. From knowledge of the current aliasing frequency, a correction filter is calculated and constantly updated (source position-dependent). The speaker signals for this source are calculated by this correction filter. According to the invention, an optimal sound for different speaker setups including the source-position-dependent aliasing frequency is thus achieved in the calculation of the loudspeaker signals. In addition, this results in correction possibilities of the loudspeaker frequency response by including the loudspeaker parameters in the calculation. It is also possible to integrate it as a plugin into conventional simulation tools (eg in EASE). Likewise, real sound field calculations involving the entire transmission chain (source position, WFS algorithm, loudspeaker parameters, room parameters, listening position) can take place.
  • a complex impulse response is thus calculated in a preferred embodiment with knowledge of the position of a virtual sound source, as well as the loudspeaker and room parameters. Simulations and auralizations of WFS sound fields are possible with this impulse response.
  • the system also provides information on the dynamic control of the compensation filter (3dB filter) for the WFS.
  • An optimized filter improves the sound quality of a WFS system.
  • the scheme according to the invention can also be implemented in software.
  • the implementation may be on a digital storage medium, in particular a floppy disk or a CD with electronically readable control signals, which may interact with a programmable computer system such that the corresponding method is executed.
  • the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention, when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

An aliasing correction in a wave field synthesis system is performed by determining the aliasing filter characteristic specific to a virtual source. Said aliasing filter characteristic, which can be the aliasing frequency for example, is determined by means of the source position information. The aliasing filter characteristic is used for an adaptive anti-aliasing filter for the adaptive filtering of the audio signal associated with the source or the component signals associated with the source.

Description

Die vorliegende Erfindung bezieht sich auf Wellenfeldsynthesesysteme und insbesondere auf das Aliasing-Korrigieren in Wellenfeldsynthesesystemen.The present invention relates to wave field synthesis systems, and more particularly to aliasing correction in wave field synthesis systems.

Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektronik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.There is an increasing demand for new technologies and innovative products in the field of consumer electronics. It is an important prerequisite for the success of new multimedia systems to offer optimal functionalities and capabilities. This is achieved through the use of digital technologies and especially computer technology. Examples of these are the applications that offer an improved, realistic audiovisual impression. In previous audio systems, a significant weakness lies in the quality of the spatial sound reproduction of natural, but also of virtual environments.

Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.Methods for multi-channel speaker reproduction of audio signals have been known and standardized for many years. All the usual techniques have the disadvantage that both the installation site of the loudspeakers and the position of the listener are already impressed on the transmission format. If the speakers are arranged incorrectly with respect to the listener, the audio quality suffers significantly. An optimal sound is only possible in a small area of the playback room, the so-called sweet spot.

Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt ( Berkhout, A.J.; de Vries, D.; Vogel, P.: Acoustic control by Wave-field Synthesis. JASA 93, 1993 ).A better natural spatial impression as well as a stronger envelope in the audio reproduction can be achieved with the help of a new technology. The basics of this technology, the so-called wave field synthesis (WFS), were researched at the TU Delft and first presented in the late 80s ( Berkhout, AJ; de Vries, D .; Vogel, P .: Acoustic control by wave-field synthesis. JASA 93, 1993 ).

Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den Konsumerbereich auf den Markt kommen.Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has rarely been used in practice. Only the advances in the areas of microprocessor technology and audio coding allow today the use of this technology in concrete applications. In a few years, the first wave field synthesis applications for the consumer sector will be launched.

Die Grundidee von WFS basiert auf der Anwendung des Huygens'schen Prinzips der Wellentheorie:

  • Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.
The basic idea of WFS is based on the application of Huygens' principle of wave theory:
  • Every point, which is detected by a wave, is the starting point of an elementary wave, which spreads in a spherical or circular manner.

Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray), jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. In einem Raum mit reflektierenden Wänden können auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront. In the simplest case, a single point source to be reproduced and a linear arrangement of the speakers, the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap. With multiple sound sources, the contribution to each speaker is calculated separately for each source and the resulting signals added together. In a room with reflective walls, reflections can also be reproduced as additional sources via the loudspeaker array. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.

Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.The advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible. In contrast to the known techniques, the direction and distance of sound sources are reproduced very accurately. To a limited extent, virtual sound sources can even be positioned between the real speaker array and the listener.

Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.Although wavefield synthesis works well for environments whose characteristics are known, irregularities occur when the texture changes, or when wave field synthesis is performed based on environmental conditions that do not match the actual nature of the environment.

Die Technik der Wellenfeldsynthese kann jedoch ebenfalls vorteilhaft eingesetzt werden, um eine visuelle Wahrnehmung um eine entsprechende räumliche Audiowahrnehmung zu ergänzen. Bisher stand bei der Produktion in virtuellen Studios die Vermittlung eines authentischen visuellen Eindrucks der virtuellen Szene im Vordergrund. Der zum Bild passende akustische Eindruck wird in der Regel durch manuelle Arbeitsschritte in der sogenannten Postproduktion nachträglich dem Audiosignal aufgeprägt oder als zu aufwendig und zeitintensiv in der Realisierung eingestuft und daher vernachlässigt. Dadurch kommt es üblicherweise zu einem Widerspruch der einzelnen Sinnesempfindungen, der dazu führt, dass der entworfene Raum, d. h. die entworfene Szene, als weniger authentisch empfunden wird.However, the technique of wave field synthesis can also be used advantageously to supplement a visual perception with a corresponding spatial audio perception. Until now, production in virtual studios focused on providing an authentic visual impression of the virtual scene. The matching to the image acoustic impression is usually impressed by manual operations in the so-called post-production subsequently the audio signal or classified as too complex and time-consuming in the realization and therefore neglected. This usually leads to a contradiction of the individual sense sensations, which results in that the designed space, d. H. the designed scene is perceived as less authentic.

In der Fachveröffentlichung " Subjective experiments on the effects of combining spatialized audio and 2D video projection in audio-visual systems", W. de Bruijn und M. Boone, AES convention paper 5582, 10. bis 13. Mai 2002, Münch en, werden subjektive Experimente bezüglich der Auswirkungen des Kombinierens von räumlichem Audio und einer zweidimensionalen Videoprojektion in audiovisuellen Systemen dargestellt. Insbesondere wird hervorgehoben, dass zwei in einer unterschiedlichen Entfernung zu einer Kamera stehende Sprecher, die nahezu hintereinander stehen, von einem Betrachter besser verstanden werden können, wenn mit Hilfe der Wellenfeldsynthese die zwei hintereinander stehenden Personen als unterschiedliche virtuelle Schallquellen aufgefasst und rekonstruiert werden. In diesem Fall hat sich durch subjektive Tests herausgestellt, dass ein Zuhörer die beiden gleichzeitig sprechenden Sprecher getrennt voneinander besser verstehen und unterscheiden kann.In the technical publication " Subjective experiments on the effects of combining spatialized audio and 2D video projection in audio-visual systems ", W. de Bruijn and M. Boone, AES convention paper 5582, 10-13 May 2002, Münch In addition, subjective experiments on the effects of combining spatial audio and two-dimensional video projection in audiovisual systems are presented. In particular, it is emphasized that two in one Speakers standing at different distances from one another standing close to one another can be better understood by a viewer when the two consecutive persons are understood and reconstructed as different virtual sound sources with the help of wave field synthesis. In this case, subjective tests have shown that a listener can better understand and distinguish between the two speakers speaking at the same time.

Im Audiobereich lässt sich also durch die Technik der Wellenfeldsynthese (WFS) ein guter räumlicher Klang für eine großen Hörerbereich erzielen. Wie es ausgeführt worden ist, basiert die Wellenfeldsynthese auf dem Prinzip von Huygens, nach welchem sich Wellenfronten durch Überlagerung von Elementarwellen formen und aufbauen lassen. Nach mathematisch exakter theoretischer Beschreibung müssten unendlich viele Quellen in unendlich kleinem Abstand für die Erzeugung der Elementarwellen genutzt werden. Praktisch werden jedoch endlich viele Lautsprecher in einem endlich kleinen Abstand zueinander genutzt. Jeder dieser Lautsprecher wird gemäß dem WFS-Prinzip mit einem Audiosignal von einer virtuellen Quelle, das ein bestimmtes Delay und einen bestimmten Pegel hat, angesteuert. Pegel und Delays sind in der Regel für alle Lautsprecher unterschiedlich.In the audio field, the technique of Wave Field Synthesis (WFS) can be used to achieve a good spatial sound for a large listener area. As has been pointed out, wave field synthesis is based on the principle of Huygens, according to which wavefronts can be formed and built up by superimposing elementary waves. After mathematically exact theoretical description, infinitely many sources in infinitely small distance would have to be used for the generation of the elementary waves. Practically, however, many speakers are finally used at a finite distance from each other. Each of these speakers is driven according to the WFS principle with an audio signal from a virtual source having a particular delay and a certain level. Levels and delays are usually different for all speakers.

Wie es bereits ausgeführt worden ist, arbeitet das Wellenfeldsynthesesystem auf der Basis des Huygens-Prinzips und rekonstruiert eine gegebene Wellenform beispielsweise einer virtuellen Quelle, die in einem bestimmten Abstand zu einem Vorführbereich bzw. zu einem Hörer in dem Vorführbereich angeordnet ist durch eine Vielzahl von Einzelwellen. Der Wellenfeldsynthesealgorithmus erhält somit Informationen über die tatsächliche Position eines Einzellautsprechers aus dem Lautsprecherarray, um dann für diesen Einzellautsprecher ein Komponentensignal zu berechnen, das dieser Lautsprecher dann letztendlich abstrahlen muss, damit beim Zuhörer eine Überlagerung des Lautsprechersignals von dem einen Lautsprecher mit den Lautsprechersignalen der anderen aktiven Lautsprecher eine Rekonstruktion dahingehend durchführt, dass der Hörer den Eindruck hat, dass er nicht von vielen Einzellautsprechern "beschallt" wird, sondern lediglich von einem einzigen Lautsprecher an der Position der virtuellen Quelle.As already stated, the wave field synthesis system operates on the basis of the Huygens principle and reconstructs a given waveform of, for example, a virtual source located at a certain distance from a demonstration area or a listener in the show area by a plurality of single waves , The wave field synthesis algorithm thus obtains information about the actual position of a single loudspeaker from the loudspeaker array, in order then to calculate a component signal for this single loudspeaker, which then ultimately has to radiate this loudspeaker so that the listener can overlay the loudspeaker signal from the loudspeaker signal a speaker with the speaker signals of the other active speakers performs a reconstruction in that the listener has the impression that he is not "sonicated" by many individual speakers, but only from a single speaker at the position of the virtual source.

Für mehrere virtuelle Quellen in einem Wellenfeldsynthesesetting wird der Beitrag von jeder virtuellen Quelle für jeden Lautsprecher, also das Komponentensignal der ersten virtuellen Quelle für den ersten Lautsprecher, der zweiten virtuellen Quelle für den ersten Lautsprecher, etc. berechnet, um dann die Komponentensignale aufzuaddieren, um schließlich das tatsächliche Lautsprechersignal zu erhalten. Im Falle von beispielsweise drei virtuellen Quellen würde die Überlagerung der Lautsprechersignale aller aktiven Lautsprecher beim Hörer dazu führen, dass der Hörer nicht den Eindruck hat, dass er von einem großen Array von Lautsprechern beschallt wird, sondern dass der Schall, den er hört, lediglich von drei an speziellen Positionen positionierten Schallquellen kommt, die gleich den virtuellen Quellen sind.For multiple virtual sources in a wavefield synthesis setting, the contribution from each virtual source for each loudspeaker, that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc., is calculated to then add up the component signals finally get the actual speaker signal. For example, in the case of three virtual sources, superimposing the loudspeaker signals of all active loudspeakers on the listener would mean that the listener does not feel that he is being sonicated by a large array of loudspeakers, but that the sound he hears is merely from three sound sources positioned at specific positions, which are equal to the virtual sources.

Die Berechnung der Komponentensignale erfolgt in der Praxis meist dadurch, dass das einer virtuellen Quelle zugeordnete Audiosignal je nach Position der virtuellen Quelle und Position des Lautsprechers zu einem bestimmten Zeitpunkt mit einem Verzögerungs- und einem Skalierungswert beaufschlagt wird, um ein verzögertes und/oder skaliertes Audiosignal der virtuellen Quelle zu erhalten, das das Lautsprechersignal unmittelbar darstellt, wenn nur eine virtuellen Quelle vorhanden ist, oder das nach Addition mit weiteren Komponentensignalen für den betrachteten Lautsprecher von anderen virtuellen Quellen dann zum Lautsprechersignal für den betrachteten Lautsprecher beiträgt.The computation of the component signals usually takes place in practice by applying a delay and a scaling value to the audio source assigned to a virtual source, depending on the position of the virtual source and the position of the loudspeaker, at a particular time, a delayed and / or scaled audio signal the virtual source that directly represents the loudspeaker signal when there is only one virtual source, or that adds to other component signals for the considered loudspeaker from other virtual sources then to the loudspeaker signal for the considered loudspeaker.

Typische Wellenfeldsynthesealgorithmen arbeiten unabhängig davon, wie viele Lautsprecher im Lautsprecherarray vorhanden sind. Die der Wellenfeldsynthese zugrundeliegende Theorie besteht darin, dass jedes beliebige Schallfeld durch eine unendlich hohe Anzahl von Einzellautsprechern exakt rekonstruiert werden kann, wobei die einzelnen Einzellautsprecher unendlich nahe zueinander angeordnet sind. In der Praxis kann jedoch weder die unendlich hohe Anzahl noch die unendlich nahe Anordnung realisiert werden. Statt dessen existiert eine begrenzte Anzahl von Lautsprechern, die zudem in bestimmten vorgegebenen Abständen zueinander angeordnet sind. Damit wird in realen Systemen immer nur eine Annäherung an die tatsächliche Wellenform erreicht, die stattfinden würde, wenn die virtuelle Quelle tatsächlich vorhanden wäre, also eine reale Quelle sein würde.Typical wave field synthesis algorithms work regardless of how many speakers are present in the speaker array are. The underlying theory of Wave Field Synthesis is that any sound field can be accurately reconstructed by an infinite number of individual speakers, with the individual individual speakers arranged infinitely close to each other. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there are a limited number of speakers, which are also arranged at certain predetermined distances from each other. Thus, in real systems, only an approximation to the actual waveform that would occur if the virtual source were actually present, would be a real source.

Aufgrund von Lautsprecher-Array-Effekten kommt es unterhalb einer Aliasing-Frequenz zu einer Summierung der Tieftonanteile von beispielsweise 3dB pro Oktave. Diese Verstärkung ist eine Folge der Schallwellenüberlagerungen für tiefe Töne in der WFS-Wiedergabe. Deshalb wird für die WFS-Wiedergabe unterhalb der Aliasing-Frequenz ein statisches Filter berechnet, welches den Tieftonanteil korrigiert, d.h. absenkt. Dieses Filter wird in Abhängigkeit von dem Lautsprecherabstand berechnet und die Justierung der Aliasing-Frequenz erfolgt momentan manuell nach dem Höreindruck des Tonmeisters.Due to loudspeaker array effects, below an aliasing frequency, the bass frequencies of, for example, 3dB per octave are summed. This gain is a consequence of the soundwave overlays for low tones in WFS playback. Therefore, for the WFS rendering below the aliasing frequency, a static filter is calculated which corrects the low frequency part, i. lowers. This filter is calculated as a function of the speaker distance and the adjustment of the aliasing frequency is currently done manually according to the sound impression of the Tonmeister.

Es hat sich herausgestellt, dass die manuelle Einstellung subjektiv und damit aufwändig ist und ferner zu starken Qualitätsschwankungen des wahrgenommenen Tons geführt hat.It has been found that the manual adjustment is subjective and therefore expensive and has also led to strong quality fluctuations of the perceived sound.

Die Fachveröffentlichungen von E. Corteel, U. Horbach, R. S. Pellegrini: "Multichannel Inverse Filtering of Multiexciter Distributed Mode Loudspeakers for Wave Field Synthesis", AES convention paper 5611, 10. bis 13. Mai, Münch en, und U. Horbach, E. Corteel, D. de Vries: "Spatial Audio Reproduction using Distributed Mode Loudspeaker Arrays", AES conference paper, 1. bis 3. Juni, St. Petersburg , als auch das Patent DE 103 21 986 beziehen sich auf Amplituden bzw. Frequenzmanipulation zu Qualitätsverbesserungen in der Wellenfeldsynthese.The technical publications of E. Corteel, U. Horbach, RS Pellegrini: "Multichannel Inverse Filtering of Multiexciter Distributed Mode Loudspeakers for Wave Field Synthesis", AES convention paper 5611, 10-13 May, Münch and, U. Horbach, E. Corteel, D. de Vries: "Spatial Audio Reproduction Using Distributed Mode Loudspeaker Arrays", AES conference paper, June 1 - 3, St. Petersburg , as well as the patent DE 103 21 986 refer to amplitudes or Frequency manipulation to quality improvements in wave field synthesis.

Die Veröffentlichung " Caractérisation et Extensions de la Wave Field Synthesis en conditions réelles", E. Corteel, 9. Dezember 2004, Doktorarbeit an der Universität Par is, beschreibt Filter, die eine Entzerrung des Soundsignals oberhalb der Aliasing-Frequenz bewirken.The publication " Caractérisation et Extensions de la Wave Field Synthesis en conditions réelles ", E. Corteel, December 9, 2004, Doctoral thesis at the University of Par is, describes filters that cause an equalization of the sound signal above the aliasing frequency.

Die Aufgabe der vorliegenden Erfindung besteht darin, ein Konzept zum Aliasing Korrigieren in einem Wellenfeldsynthesesystem zu schaffen, welches Qualitätsschwankungen im wahrgenommenen Ton reduziert.The object of the present invention is to provide a concept for aliasing correction in a wave field synthesis system which reduces quality variations in the perceived sound.

Diese Aufgabe wird durch eine Vorrichtung gemäß Patentanspruch 1, ein Verfahren gemäß Patentanspruch 12 oder ein Computerprogramm gemäß Patentanspruch 13 gelöst.This object is achieved by a device according to claim 1, a method according to claim 12 or a computer program according to claim 13.

Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass das Aliasing-Korrigieren in einem Wellenfeldsynthesesystem dadurch verbessert wird, dass die für eine virtuelle Quelle spezifische Aliasing-Filtereigenschaft unter Verwendung der Quellpositionsinformation ermittelt wird.The present invention is based on the finding that aliasing correction in a wave field synthesis system is improved by determining the virtual source specific aliasing filter property using the source position information.

Diese Aliasing-Filtereigenschaft, die z. B. die Aliasing-Frequenz sein kann, wird mit Hilfe der Quellenpositionsinformation ermittelt. Diese Aliasing-Filtereigenschaft wird für ein adaptives Anti-Aliasing-Filter zum adaptiven Filtern des der Quellen zugeordneten Audiosignals oder der der Quelle zugeordneten Komponentensignale verwendet.This aliasing filter property, which is e.g. B. the aliasing frequency can be determined using the source position information. This aliasing filter property is used for an adaptive anti-aliasing filter for adaptively filtering the audio signal assigned to the sources or the component signals assigned to the source.

In einem Ausführungsbeispiel der vorliegenden Erfindung wird ein Abhörpunkt im Wiedergaberaum gewählt und das Wellenfeldsynthesemodul liefert für eine virtuelle Quelle entsprechende Skalierungs- und Verzögerungswerte für die einzelnen Lautsprecher. Unter Benutzung der Schallausbreitungsgesetze werden daraus für einen bestimmten Impuls der Amplitudenwert und den Zeitwert des Eintreffens des Impulses am Abhörpunkt berechnet. Die einzelnen Impulse der einzelnen Lautsprecher kommen nicht zeitgleich am Abhörpunkt an und liefern stattdessen Zeitsignale und Zeitwerte. Diese Zeitsignale werden in eine spektrale Darstellung transformiert, aus der die Aliasing-Frequenz ermittelt wird. Diese Aliasing-Frequenz markiert den Bereich zwischen einem fluk-tuierenden Verhalten der Spektraldarstellung und einem anwachsendem Verhalten zu niederen Frequenzen. Diese Aliasing-Frequenz dient nun als Eingabe für ein Anti-Aliasing-Filter, welches den Pegel unterhalb der Aliasing-Frequenz korrigiert, z.B. mit 3dB pro Oktave dämpft.In one embodiment of the present invention, a listening point in the playback room is selected, and the wave-field synthesis module provides scaling and delay values for the individual speakers corresponding to a virtual source. Using the sound propagation laws, the amplitude value and the time value of the arrival of the pulse at the listening point are calculated for a given pulse. The individual impulses of the individual loudspeakers do not arrive simultaneously at the listening point and instead supply time signals and time values. These time signals are transformed into a spectral representation, from which the aliasing frequency is determined. This aliasing frequency marks the area between a fluctuating one Behavior of the spectral representation and an increasing behavior to lower frequencies. This aliasing frequency is now used as input for an anti-aliasing filter, which corrects the level below the aliasing frequency, eg attenuates with 3dB per octave.

Ein Vorteil erfindungsgemäßer Ausführungsbeispiele besteht darin, dass jeder virtuellen Quelle eine Aliasing-Frequenz zugeordnet wird. Damit ist es möglich, auch bewegte virtuelle Quellen dynamisch zu filtern und somit werden Klangverfärbungen infolge der Bewegung unterdrückt. In bisher benutzten statischen Filtern ist dies nicht möglich und infolgedessen führen diese statischen Filter zu einer Verfälschung des Klangs bei einer Bewegung der virtuellen Quellen. Bei einer Implementierung des Aliasing-Filters in einem Computersystem, kann man dabei die Filterung zeitnah mit der Bewegung der virtuellen Quellen ausführen. Um Rechenzeit einzusparen, kann man in einem weiteren Ausführungsbeispiel die Aliasing-Frequenz nicht kontinuierlich für alle möglichen Positionen der virtuellen Quelle berechnen, sondern stattdessen nur für diskrete Punkte ermitteln. Diese erhaltenen Aliasing-Frequenzen können z.B. in eine Tabelle aufgenommen werden, so dass weitere Berechnungen entfallen. Die erreichte Qualität wird durch die Dichte der diskreten Punkte gegeben.An advantage of embodiments according to the invention is that each virtual source is assigned an aliasing frequency. This makes it possible to dynamically filter even moving virtual sources and thus discoloration due to the movement is suppressed. In previously used static filters, this is not possible and as a result these static filters lead to a distortion of the sound during a movement of the virtual sources. In an implementation of the aliasing filter in a computer system, one can perform the filtering in real time with the movement of the virtual sources. In order to save computing time, in a further embodiment it is not possible to calculate the aliasing frequency continuously for all possible positions of the virtual source, but instead to determine it only for discrete points. These obtained aliasing frequencies may be e.g. be included in a table so that further calculations are omitted. The quality achieved is given by the density of the discrete points.

Ein weiterer Vorteil der vorliegenden Erfindung besteht darin, dass man das Aliasing-Filtern auch in Bezug verschiedene Abhörpunkte durchführen kann. Durch Mittelung dieser verschiedenen Aliasing-Frequenzen, die einer virtuellen Quelle zugeordnet sind, kann man eine gemittelte Aliasing-Frequenz für den gesamten Abhörraum ermitteln. Diese gemittelte Aliasing-Frequenz ändert sich wiederum bei einer Änderung der Position der virtuellen Quelle und kann wie zuvor beschrieben in Abhängigkeit von der Position der virtuellen Quelle korrigiert werden.Another advantage of the present invention is that aliasing filtering can also be performed with respect to different listening points. By averaging these different aliasing frequencies associated with a virtual source, one can obtain an average aliasing frequency for the entire listening room. This averaged aliasing frequency, in turn, changes as the position of the virtual source changes, and can be corrected as previously described, depending on the position of the virtual source.

Erfindungemäß wird also berücksichtigt, dass die Charakteristik dieser Tieftonanhebung dynamisch ist und von unterschiedlichen Faktoren abhängt. Dies sind z. B. die Lautsprecherdichte und der Einfallswinkel der virtuellen Schallquellen.According to the invention, it is thus considered that the characteristic of this bass tone boost is dynamic and depends on different factors. These are z. B. the speaker density and the angle of incidence of the virtual sound sources.

Die Aliasing-Frequenz ändert sich mit der Positionierung der virtuellen Schallquellen und ist folglich dynamisch. Diese Dynamik wird in der derzeitigen Berechnung nicht berücksichtigt. Ein wesentlicher Nachteil bisheriger WFS-Systeme ist, das Quellbewegungen als Klangfarbenänderungen wahrnehmbar sind. Diese sind die Folge des statischen Filters und der dynamischen Änderung der Aliasing-Frequenz und der Bass Anhebung. Besonders signifikant sind diese Klangfarbenänderungen, wenn sich die virtuelle Quelle parallel zu den Lautsprechern bewegt. Ein weiterer Nachteil der bestehenden Technik besteht darin, dass verschiedene Lautsprecher Setups (mit unterschiedlichen Lautsprecherabständen) die Aliasing-Frequenz und die Bass Anhebung beeinflussen, welche bisher manuell auf dem jeweiligen Setup angepasst werden muss.The aliasing frequency changes with the positioning of the virtual sound sources and is therefore dynamic. This dynamic is not taken into account in the current calculation. A major disadvantage of previous WFS systems is that swelling movements are perceivable as tone color changes. These are the result of the static filter and the dynamic change of the aliasing frequency and the bass boost. These tone color changes are particularly significant when the virtual source is parallel to the speakers. Another disadvantage of the existing technology is that different speaker setups (with different speaker distances) affect the aliasing frequency and the bass boost, which until now had to be adjusted manually on the respective setup.

Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegende Zeichnung detailliert erläutert. Es zeigen:

Fig. 1a
ein Blockschaltbild der erfindungsgemäßen Vor- richtung zum Aliasing-Filtern in einem Wellen- feldsynthesesystem, wobei die Komponentensignale gefiltert werden;
Fig. 1b
ein Blockschaltbild der erfindungsgemäßen Vor- richtung zum Aliasing-Filtern in einem Wellen- feldsynthesesystem, wobei die Audiosignale, die einer virtuellen Quelle zugeordnet sind, gefil- tert werden;
Fig. 2
ein Prinzipschaltbild in einer Wellenfeldsynthe- seumgebung, wie sie für die vorliegende Erfindung einsetzbar ist;
Fig. 3a
ein Blockschaltbild einer erfindungsgemäßen Ein- richtung zum Ermitteln der Aliasing-Frequenz;
Fig. 3b
eine Skizze zur Erläuterung des Ausbreitungsver- zögerungs- und Ausbreitungsskalierungswerts von den Lautsprechern zu dem Abhörpunkt;
Fig. 3c
ein Beispiel von 10 Lautsprechern, wo die Skalie- rungs- und Verzögerungswerte der einzelnen Laut- sprecher zu einem Zeitsignal am Abhörpunkt kombi- niert werden, aus welchem man nach der spektralen Darstellung die Aliasing-Frequenz ermittelt;
Fig. 4
ein Blockschaltbild zur Ermittlung der Aliasing- Frequenzen, die verschiedenen virtuellen Quellen entsprechen;
Fig. 5
ein Blockschaltbild zur Mittelung der Aliasing- Filtereigenschaften für verschiedene Abhörpunkte;
Fig. 6
ein Blockschaltbild für ein adaptives Filter für mehrere virtuelle Quellen; und
Fig. 7
ein prinzipielles Blockschaltbild eines Wellen- feldsynthesesystems mit Wellenfeldsynthesemodul und Lautsprecherarray in einem Vorführbereich.
Preferred embodiments of the present invention will be explained below in detail with reference to the accompanying drawings. Show it:
Fig. 1a
a block diagram of the inventive device for aliasing filtering in a wave field synthesis system, wherein the component signals are filtered;
Fig. 1b
a block diagram of the inventive device for aliasing filtering in a wave field synthesis system, wherein the audio signals that are assigned to a virtual source, be filtered;
Fig. 2
a schematic diagram in a Wellenfeldsynthe- seumgebung, as can be used for the present invention;
Fig. 3a
a block diagram of a device according to the invention for determining the aliasing frequency;
Fig. 3b
a sketch for explaining the propagation delay and propagation scaling value from the speakers to the listening point;
Fig. 3c
an example of 10 loudspeakers, where the scaling and delay values of the individual loudspeakers are combined into a time signal at the interception point, from which the aliasing frequency is determined after the spectral representation;
Fig. 4
a block diagram for determining the aliasing frequencies corresponding to different virtual sources;
Fig. 5
a block diagram for averaging the aliasing filter properties for different Abhörpunkte;
Fig. 6
a block diagram for an adaptive filter for multiple virtual sources; and
Fig. 7
a schematic block diagram of a wave field synthesis system with wave field synthesis module and speaker array in a demonstration area.

Bevor detailliert auf die vorliegende Erfindung eingegangen wird, wird nachfolgend anhand von Fig. 7 der prinzipielle Aufbau eines Wellenfeldsynthesesystems dargestellt. Das Wellenfeldsynthesesystem hat ein Lautsprecherarray 700, das bezüglich eines Vorführbereichs 702 platziert ist. Im einzelnen umfasst das in Fig. 7 gezeigte Lautsprecherarray, das ein 360°-Array ist, vier Arrayseiten 700a, 700b, 700c und 700d. Ist der Vorführbereich 702 z. B. ein Kinosaal, so wird bezüglich der Konventionen vorne/hinten oder rechts/links davon ausgegangen, daß sich die Kinoleinwand auf derselben Seite des Vorführbereichs 702 befindet, an der auch das Teil-Array 700c angeordnet ist. In diesem Fall würde der Betrachter, der an dem hier so genannten Optimal-Punkt P in dem Vorführbereich 702 sitzt, nach vorne, also auf die Leinwand, sehen. Hinter dem Zuschauer würde sich dann das Teil-Array 700a befinden, während sich links vom Zuschauer das Teil-Array 700d befinden würde, und während sich rechts vom Zuschauer das Teil-Array 700b befinden würde. Jedes Lautsprecherarray besteht aus einer Anzahl von verschiedenen Einzellautsprechern 708, die jeweils mit eigenen Lautsprechersignalen angesteuert werden, die von einem Wellenfeldsynthesemodul 710 über einen in Fig. 7 lediglich schematisch gezeigten Datenbus 712 bereitgestellt werden. Das Wellenfeldsynthesemodul ist ausgebildet, um unter Verwendung der Informationen über z. B. Art und Lage der Lautsprecher bezüglich des Vorführbereichs 702, also von Lautsprecher-Informationen (LS-Infos), und gegebenenfalls mit sonstigen Inputs Lautsprechersignale für die einzelnen Lautsprecher 708 zu berechnen, die jeweils von den Audiotracks für virtuelle Quellen, denen ferner Positionsinformationen zugeordnet sind, gemäß den bekannten Wellenfeldsynthesealgorithmen abgeleitet werden. Das Wellenfeldsynthesemodul kann ferner noch weitere Eingaben erhalten, wie beispielsweise Informationen über die Raumakustik des Vorführbereichs etc.Before going into the present invention in detail, will be described below with reference to Fig. 7 the basic structure of a wave field synthesis system shown. The wave field synthesis system has a speaker array 700 placed with respect to a demonstration area 702. In detail, this includes in Fig. 7 shown speaker array which is a 360 ° array, four array sides 700a, 700b, 700c and 700d. If the demonstration area 702 z. As a movie theater, it is assumed that the cinema screen is on the same side of the screening area 702 on which also the sub-array 700 c is arranged with respect to the conventions front / back or right / left. In this case, the observer who is sitting at the so-called optimal point P in the demonstration area 702 would see to the front, ie to the screen. Behind the viewer would then be the sub-array 700a, while to the left of the viewer would be the sub-array 700d, and to the right of the viewer would be the sub-array 700b. Each loudspeaker array consists of a number of different individual loudspeakers 708, each of which is driven by its own loudspeaker signals transmitted by a wave field synthesis module 710 via an in-line loudspeaker signal Fig. 7 only schematically shown data bus 712 are provided. The wave field synthesis module is configured to use the information about e.g. B. type and location of the speaker with respect to the screening area 702, so of speaker information (LS information), and optionally with other inputs to calculate loudspeaker signals for the individual speakers 708, each of the audio tracks for virtual sources, which further assigned position information are derived according to the known wave field synthesis algorithms. The wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.

Die nachfolgenden Ausführungen zur vorliegenden Erfindung können prinzipiell für jeden Punkt P in dem Vorführbereich durchgeführt werden. Der Optimal-Punkt kann somit an jeder beliebigen Stelle im Vorführbereich 702 liegen. Es kann auch mehrere Optimal-Punkte, z. B. auf einer Optimal-Linie, geben. Um jedoch möglichst gute Verhältnisse für möglichst viele Punkte im Vorführbereich 702 zu erhalten, wird es bevorzugt, den Optimal-Punkt bzw. die Optimal-Linie in der Mitte bzw. am Schwerpunkt des Wellenfeldsynthesesystems, das durch die Lautsprecher-Teilarrays 700a, 700b, 700c, 700d definiert ist, anzunehmen.The following embodiments of the present invention may in principle be performed for each point P in the demonstration area. The optimum point can thus lie anywhere in the demonstration area 702. It can also be several optimal points, z. B. on an optimal line, give. However, in order to obtain the best possible ratios for as many points as possible in the demonstration area 702, it is preferable to use the optimum point or the optimal line in the middle or at the center of gravity of the wave field synthesis system, which is defined by the speaker sub-arrays 700a, 700b, 700c, 700d.

Fig. 1a zeigt ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Aliasing-Korrigieren in einem Wellenfeldsynthesesystem, das Bezug nehmend auf Fig. 7 dargelegt worden ist. Zentrum einer Wellenfeldsyntheseumgebung ist ein Wellenfeldsynthesemodul 100, welches einen Eingang für die Audiosignale 102 der virtuellen Quellen besitzt, einen Eingang für die Positionsdaten 104 der virtuellen Quellen, einen Eingang für die Positionsdaten der Lautsprecher 106 und gegebenenfalls sonstige Eingänge 108, die z. B. Informationen über die Raumakustik liefern, besitzt. In einem Ausgang liefert das Wellenfeldsynthesemodul 100 die Komponentensignale 110 als auch die entsprechenden Verzögerungs- und Skalierungswerte für die einzelnen Lautsprecher. Diese Daten dienen als Eingangsdaten der Einrichtung 120 zur Ermittlung einer Quellen spezifischen Aliasing-Filtereigenschaft (AFE) 130, die darüber hinaus gegebenenfalls noch die Information zur Position des Abhörpunktes 125 erhält. Die Aliasing-Filtereigenschaft 130 als auch die Komponentensignale 110 dienen als Eingangssignale für das adaptive Anti-Aliasing-Filter 140 für die virtuellen Quellen. Nach dem Filtern der Komponentensignale 110 werden in einer Einrichtung zum Kombinieren der Komponentensignale 150 die entsprechenden Lautsprechersignale 160 erstellt. Fig. 1a FIG. 12 is a block diagram of the inventive apparatus for aliasing correction in a wave-field synthesis system, referring to FIG Fig. 7 has been set out. At the center of a wave field synthesis environment is a wave field synthesis module 100 having an input for the audio signals 102 of the virtual sources, an input for the position data 104 of the virtual sources, an input for the position data of the speakers 106 and optionally other inputs 108, the z. B. provide information about the room acoustics has. In one output, the wave-field synthesis module 100 provides the component signals 110 as well as the corresponding delay and scale values for the individual speakers. These data serve as input data to the device 120 for determining a source-specific aliasing filter characteristic (AFE) 130, which optionally also receives the information about the position of the interception point 125. The aliasing filter property 130 as well as the component signals 110 serve as inputs to the adaptive anti-aliasing filter 140 for the virtual sources. After filtering the component signals 110, the corresponding loudspeaker signals 160 are created in a means for combining the component signals 150.

In Fig. 1b ist eine erfindungsgemäße Vorrichtung gezeigt, bei der nicht die Komponentensignale 110 durch das adaptive Anti-Aliasing-Filter 140 gefiltert werden, sondern die Audiosignale 102 in dem adaptiven Anti-Aliasing-Filter 140 für virtuellen Quellen gefiltert werden. Das gefilterte Audiosignal 165 wird in das Wellenfeldsynthesemodul 100 eingegeben, um gefilterte Komponentensignale zu erzeugen und in der Einrichtung 150 zum Kombinieren der Komponentensignale die entsprechenden Lautsprechersignale 160 zu erzeugen.In Fig. 1b For example, an apparatus according to the invention is shown in which the component signals 110 are not filtered by the adaptive anti-aliasing filter 140, but the audio signals 102 are filtered in the virtual source adaptive anti-aliasing filter 140. The filtered audio signal 165 is input to the wave field synthesis module 100 to generate filtered component signals and to generate the corresponding loudspeaker signals 160 in the component signal combining unit 150.

Wie es aus Fig. 2 ersichtlich ist, erhält das Wellenfeldsynthesemodul 100 von jeder virtuellen Quelle ein Audiosignal und eine Positionsinformation. Beispielhaft ist in dieser Figur gezeigt: das Audiosignal der ersten Quelle 212 und die Position der ersten Quelle 214, das Audiosignal der zweiten Quelle 222 und die Positionsinformation der zweiten Quelle 224 als auch das Audiosignal der letzten Quelle 232 und die Positionsinformation der letzten Quelle 234. Unter Verwendung der Daten zur Position der Lautsprecher 106 als auch sonstiger Eingaben wie z. B. der Raumakustik 108 bestimmt das Wellenfeldsynthesemodul 100 daraus für jede virtuelle Quelle die Komponentensignale die für jeden Lautsprecher. Beispielhaft gezeigt sind die Komponentensignale der ersten virtuellen Quelle KS11 bis KSn 240, der zweiten virtuellen Quelle KS21 bis KS2n 250 als auch die Komponentensignale der letzten virtuellen Quelle KSm1 bis KSmn 260.Like it out Fig. 2 As can be seen, the wave field synthesis module 100 receives an audio signal and position information from each virtual source. By way of example, this figure shows the audio signal of the first source 212 and the position of the first source 214, the audio signal of the second source 222 and the position information of the second source 224 as well as the audio signal of the last source 232 and the position information of the last source 234. Using the data on the position of the speakers 106 as well as other inputs such. For example, in room acoustics 108, the wave field synthesis module 100 determines for each virtual source the component signals for each speaker. The component signals of the first virtual source KS11 to KSn 240, the second virtual source KS21 to KS2n 250 and the component signals of the last virtual source KSm1 to KSmn 260 are shown by way of example.

Fig. 3a zeigt ein Blockschaltbild einer erfindungsgemäß bevorzugten Vorrichtung zur Bestimmung der Aliasing-Frequenz. Das Wellenfeldsynthesemodul 100 erzeugt für eine virtuelle Quelle ein Wellenfeldsyntheseskalierungswert (WFS-SW) und ein Wellenfeldsyntheseverzögerungswert (WFS-VW) 310. Aus der Position des Abhörpunktes 320 und der Information über die Position der Lautsprecher 330 wird in der Einrichtung 340 ein Ausbreitungsverzögerungswert (AVZW) als auch ein Ausbreitungsskalierungswert (ASKW) ermittelt. Diese Werte dienen zusammen mit dem WFS-SW und dem WFS-VW 310 als Eingang in die Einrichtung 350, die ein Gesamtskalierungswert (GSW) als auch einen Gesamtverzögerungswert (GVW) ermittelt. Daraus wird in der Einrichtung 360 ein Zeitsignal und entsprechende Zeitwerte ermittelt, die in der Einrichtung 370 in eine spektrale Darstellung umgesetzt wird. Schließlich wird in der Einrichtung 380 diese spektrale Darstellung ausgewertet und eine entsprechende Aliasing-Frequenz 390 bestimmt. Fig. 3a shows a block diagram of a preferred apparatus according to the invention for determining the aliasing frequency. The wave field synthesis module 100 generates a wave field synthesis scaling value (WFS-SW) and a wave field synthesis delay value (WFS-VW) 310 for a virtual source. From the position of the listening point 320 and the position information of the speakers 330, a propagation delay value (AVZW) is generated in the device 340. and a spread scaling value (ASKW). These values, along with the WFS-SW and the WFS-VW 310, serve as input to the device 350, which determines a total scaling value (GSW) as well as a total delay value (GVW). From this, a time signal and corresponding time values are determined in the device 360, which is converted into a spectral representation in the device 370. Finally, this spectral representation is evaluated in the device 380 and a corresponding aliasing frequency 390 is determined.

In Fig. 3b sind verschiedene Lautsprecher 708 gezeigt, die alle mit einem eigenen Lautsprechersignal gespeist werden, das von dem Wellenfeldsynthesemodul 100 erzeugt worden ist. So kann jeder Lautsprecher als Punktwelle modelliert werden, die ein konzentrisches Wellenfeld ausgibt. Der Gesetzmäßigkeit des konzentrischen Wellenfelds folgend fällt der Pegel des Schallfeldes mit dem Abstand r zu den Lautsprechern ab und zwar um den Faktor 1/r2. Für das Signal ergibt sich somit eine Abhängigkeit von 1/r. Unter Berücksichtigung des Ausbreitungsgeschwindigkeit der Schallwelle kann damit bestimmt werden, wann (Ausbreitungsverzögerungswert) bezogen auf den Lautsprecher welches Signal in welcher Skalierung (Ausbreitungsskalierungswert) am Abhörpunkt P eintrifft.In Fig. 3b different speakers 708 are shown, all of which are fed with their own loudspeaker signal, generated by the wave field synthesis module 100. So each speaker can be modeled as a point wave that outputs a concentric wave field. Following the law of the concentric wave field, the level of the sound field decreases with the distance r to the loudspeakers by a factor of 1 / r 2 . This results in a dependence of 1 / r on the signal. Taking into account the propagation velocity of the sound wave, it can thus be determined when (propagation delay value) with respect to the loudspeaker which signal arrives in which scaling (propagation scaling value) at the listening point P.

Fig. 3c zeigt ein konkretes Beispiel eines Vorführbereiches 702 mit 10 Lautsprechern, von denen die Lautsprecher 4 bis 7 ein Signal einer virtuellen Quelle mit einem bestimmten Skalierungswert und einem bestimmten Verzögerungswert 392 aussenden. Nach Berücksichtigung der zeitlichen Verzögerung und der Dämpfung infolge der Ausbreitung von den Lautsprechern zu dem Abhörpunkt P erhält man daraus für jeden Lautsprecher eine Gesamtverzögerungs- und ein Gesamtskalierungswert am Abhörpunkt 394. Werden diese Gesamtskalierungswerte gemäß den Gesamtverzögerungswerte als Zeitkoordinate aufgetragen, ergibt sich das Zeitsignal links unten in Fig. 3c, das als IR (Impulsantwort) am Abhörpunkt bezeichnet ist. Dabei entspricht das erste Signal mit der kleinsten Zeitwert dem von Lautsprecher 6 ausgesandten Signal, welches gemäß Tabelle 392 eine Skalierungswert von 0,8 und einen Verzögerungswert von 10ms aufweist. Das zweite Signal in 394 ist das Signal von Lautsprecher 5, welches gemäß Tabelle 392 einen Skalierungswert von 0,7 und eine Verzögerungswert von 12ms aufweist. Analog folgen dann die Signale vom Lautsprecher 4 und vom Lautsprecher 7, deren Skalierungs- und Verzögerungswerte ebenfalls in Tabelle 392 angegeben sind. Dieses Zeitsignal wird in einer spektralen Darstellung 396 umgewandelt, die durch zwei Bereiche gekennzeichnet ist. Zu hohen Frequenzen zeigt die spektral Darstellung ein fluktuierendes Verhalten, und zu niederen Frequenzen ein ansteigendes Verhalten. In dem Übergangsbereich zwischen den Bereichen liegt die Aliasing-Frequenz. Diese Aliasing-Frequenz dient dann als Eingangssignal für ein entsprechendes Korrekturfilter 398. Dieses Filter dient dazu, eine Absenkung der Tieftonanteile um beispielsweise 3dB pro Oktave zu bewirken. Fig. 3c FIG. 11 shows a concrete example of a 10-speaker demonstration area 702, from which the loudspeakers 4 to 7 transmit a virtual source signal having a particular scaling value and delay 392. After taking into account the time delay and the attenuation due to the propagation from the loudspeakers to the listening point P, one obtains for each loudspeaker a total delay and a total scaling value at the listening point 394. If these total scaling values are plotted according to the total delay values as the time coordinate, the time signal results at the bottom left in Fig. 3c , which is called IR (impulse response) at the listening point. In this case, the first signal with the smallest time value corresponds to the signal emitted by loudspeaker 6, which according to table 392 has a scaling value of 0.8 and a delay value of 10 ms. The second signal in 394 is the signal from loudspeaker 5, which according to Table 392 has a scaling value of 0.7 and a delay value of 12ms. Analogously, the signals then follow from the loudspeaker 4 and from the loudspeaker 7, whose scaling and delay values are also indicated in table 392. This time signal is converted into a spectral representation 396 characterized by two regions. At high frequencies, the spectral representation shows a fluctuating behavior, and too low Frequencies an increasing behavior. In the transition area between the areas is the aliasing frequency. This aliasing frequency then serves as an input signal for a corresponding correction filter 398. This filter serves to bring about a lowering of the low frequency components by, for example, 3dB per octave.

Fig. 4 zeigt ein Blockschaltbild, in dem die Ermittlung der Aliasing-Frequenzen für verschiedene virtuelle Quellen gezeigt ist. Das Wellenfeldsynthesemodul 100 liefert für jede virtuelle Quelle und für jeden Lautsprecher Skalierungs- und Verzögerungswerte. In dem hier gezeigten Beispiel sind sowohl die Skalierungs- und Verzögerungswerte der ersten virtuellen Quelle 402 als auch die Skalierungs- und Verzögerungswerte der letzten virtuellen Quelle 404 gezeigt. Durch Kombinieren dieser Werte mit den Ausbreitungsverzögerungswerte und den Ausbreitungsskalierungswerte wird somit für jede virtuelle Quelle ein Satz von Daten erhalten, der wiederum als Eingangssignale für die Einrichtung 350 zum Ermitteln der Gesamtskalierungswerte und der Gesamtverzögerungswerte dient. Daraus werden in der Einrichtung 360 für jede virtuelle Quelle separat entsprechende Zeitsignale und Zeitwerte ermittelt, die wiederum in der Einrichtung 370 in eine spektrale Darstellung umgewandelt werden. Diese spektralen Darstellungen werden in der Einrichtung 380 ausgewertet werden, so dass man Aliasing-Frequenzen 410 für jede virtuelle Quelle bekommt. Fig. 4 shows a block diagram in which the determination of the aliasing frequencies for different virtual sources is shown. Wave field synthesis module 100 provides scaling and delay values for each virtual source and speaker. In the example shown here, both the scaling and delay values of the first virtual source 402 and the scaling and delay values of the last virtual source 404 are shown. By combining these values with the propagation delay values and the propagation scaling values, a set of data is thus obtained for each virtual source, which in turn serves as inputs to the means 350 for determining the total scaling values and the total delay values. From this, the device 360 determines separately for each virtual source corresponding time signals and time values, which in turn are converted into a spectral representation in the device 370. These spectral representations will be evaluated in the device 380 so as to obtain aliasing frequencies 410 for each virtual source.

Fig. 5 zeigt ein Blockschaltbild, bei dem Aliasing-Frequenzen für jeden Abhörpunkt ermittelt werden und anschließend über eine Mittelung eine gemittelte Aliasing-Frequenz bestimmt wird. Dazu dienen die Skalierungswerte und Verzögerungswerte 310 für eine virtuelle Quelle als Eingangssignale für eine Einrichtung 510 zur Ermittelung einer Quellen-spezifischen Aliasing-Filtereigenschaft für einen ersten Abhörpunkt, als auch als Eingangssignale für eine Einrichtung zur Ermittelung einer Quellen-spezifischen Aliasing-Filtereigenschaft für einen zweiten Abhörpunkt 520. Für jeden weiteren Abhörpunkt werden ebenfalls die Skalierungs- und Verzögerungswerte in eine entsprechende Einrichtung zur Ermittelung einer Quellen-spezifischen Aliasing-Filtereigenschaft ermittelt. Die so erhaltenen Filtereigenschaften für jeden Abhörpunkt werden in der Einrichtung 530 über alle Abhörpunkte gemittelt. Damit erhält man für den gesamten Abhörbereich 702 eine Aliasing-Filtereigenschaft für jede virtuelle Quelle. Diese gemittelte Aliasing-Filtereigenschaft kann z. B. eine gemittelte Aliasing-Filterfrequenz sein. Fig. 5 shows a block diagram in which aliasing frequencies are determined for each Abhörpunkt and then averaging an average aliasing frequency is determined. The scaling values and delay values 310 for a virtual source serve as inputs to a means 510 for determining a source-specific aliasing filter characteristic for a first listening point, and as inputs to a means for determining a source-specific aliasing filter characteristic for a second listening point 520. For each additional listening point, the scaling and delay values are also determined in a corresponding means for determining a source-specific aliasing filter property. The filter characteristics thus obtained for each listening point are averaged in the device 530 over all the listening points. This gives the entire listening area 702 an aliasing filter property for each virtual source. This averaged aliasing filter property may be e.g. B. be an average aliasing filter frequency.

Fig. 6 zeigt ein Blockschaltbild eines adaptiven Filters für virtuelle Quellen. Die Eingangssignale dieses adaptiven Filters 140 für virtuelle Quellen sind sowohl die Aliasing-Frequenzen f1 bis fn als auch die Komponentensignale 110, die mit KS11 bis KS1n für die erste virtuelle Quelle, mit KS21 bis KS2n für die zweite virtuelle Quelle und mit KSm1 bis KSmn für die letzte virtuelle Quelle bezeichnet sind. Die Ausgangssignale des adaptiven Filters 140 sind modifizierte Komponentensignale 610, die wiederum als Eingang für die Einrichtung 150 zum Kombinieren der Komponentensignale dienen, um schließlich die Lautsprechersignale 160 zu liefern. Fig. 6 shows a block diagram of an adaptive filter for virtual sources. The inputs to this virtual source adaptive filter 140 are both the aliasing frequencies f 1 through f n and the component signals 110, those with KS11 through KS1n for the first virtual source, with KS21 through KS2n for the second virtual source, and with KSm1 through KSmn for the last virtual source are designated. The output signals of the adaptive filter 140 are modified component signals 610, which in turn serve as input to the means 150 for combining the component signals to finally provide the loudspeaker signals 160.

Die in diesem Algorithmus bestimmte Aliasing-Frequenz ist die sich dynamisch ändernde Frequenz unterhalb der bei WFS-Wiedergabe eine Bassanhebung von beispielsweise 3dB pro Oktave entsteht. Oberhalb dieser Frequenz führen Aliasing-Artefakte zu Frequenzauslöschungen und Kammfiltereffekten. Wie bereits dargelegt wird durch Analyse dieser Frequenz ein dynamisches Filter berechnet, welches die Bassanhebung Quellenabhängig kompensiert. Abhängig vom verwendeten Lautsprecher-Setup entspricht diese Anhebung nicht immer dem theoretischen Wert von 3dB pro Oktave. Dieses dynamische Korrekturfilter wird bei Quellenbewegungen ständig aktualisiert. Das Resultat ist die optimale Basskorrektur für die jeweilige Quellposition.The aliasing frequency determined in this algorithm is the dynamically changing frequency below which WFS playback produces a bass boost of, for example, 3dB per octave. Above this frequency, aliasing artifacts lead to frequency cancellations and comb filter effects. As already stated, a dynamic filter is calculated by analyzing this frequency, which compensates the bass boost source dependent. Depending on the speaker setup used, this boost does not always correspond to the theoretical value of 3dB per octave. This dynamic correction filter is constantly updated during source movements. The result is the optimal bass correction for the respective source position.

In der technischen Realisierung werden dazu die Quellpositionsabhängigen Skalierungs- und Verzögerungswerte des Signals ständig bestimmt. Aus Kenntnis der aktuellen Aliasing-Frequenz wird ein Korrekturfilter berechnet und ständig aktualisiert (quellenpositionsabhängig). Die Lautsprechersignale für diese Quelle werden von diesem Korrekturfilter berechnet. Erfindungsgemäß wird somit ein optimaler Klang für unterschiedliche Lautsprechersetups unter Einbeziehung der quellpositionsabhängigen Aliasing-Frequenz in die Berechnung der Lautsprechersignale erreicht. Außerdem ergeben sich damit Korrekturmöglichkeiten des Lautsprecherfrequenzganges durch Einbeziehung der Lautsprecherparameter in die Berechnung. Es ist auch die Einbindung als Plugin in konventionelle Simulationstools möglich (z. B. in EASE). Ebenso können reale Schallfeldberechnungen unter Einbeziehung der gesamten Übertragungskette (Quellposition, WFS-Algorithmus, Lautsprecherparameter, Raumparameter, Abhörposition) erfolgen.In the technical implementation, the source position-dependent scaling and delay values of the signal are constantly determined. From knowledge of the current aliasing frequency, a correction filter is calculated and constantly updated (source position-dependent). The speaker signals for this source are calculated by this correction filter. According to the invention, an optimal sound for different speaker setups including the source-position-dependent aliasing frequency is thus achieved in the calculation of the loudspeaker signals. In addition, this results in correction possibilities of the loudspeaker frequency response by including the loudspeaker parameters in the calculation. It is also possible to integrate it as a plugin into conventional simulation tools (eg in EASE). Likewise, real sound field calculations involving the entire transmission chain (source position, WFS algorithm, loudspeaker parameters, room parameters, listening position) can take place.

Um eine Klangverbesserung in WFS-Systemen zu erreichen wird somit bei einem bevorzugten Ausführungsbeispiel unter Kenntnis der Position einer virtuellen Schallquelle, sowie der Lautsprecher und Raumparameter eine komplexe Impulsantwort berechnet. Mit dieser Impulsantwort sind Simulationen und Auralisationen von WFS Schallfeldern möglich, Das System liefert weiterhin Informationen zur dynamischen Ansteuerung des Kompensationsfilters (3dB Filter) für die WFS. Ein optimierter Filter verbessert die Klangqualität eines WFS-Systems.In order to achieve a sound improvement in WFS systems, a complex impulse response is thus calculated in a preferred embodiment with knowledge of the position of a virtual sound source, as well as the loudspeaker and room parameters. Simulations and auralizations of WFS sound fields are possible with this impulse response. The system also provides information on the dynamic control of the compensation filter (3dB filter) for the WFS. An optimized filter improves the sound quality of a WFS system.

Abhängig von den Gegebenheiten kann das erfindungsgemäße Schema auch in Software implementiert sein kann. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder einer CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das entsprechende Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computerprogrammprodukt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogrammprodukt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computerprogramm auf einem Computer abläuft.Depending on the circumstances, the scheme according to the invention can also be implemented in software. The implementation may be on a digital storage medium, in particular a floppy disk or a CD with electronically readable control signals, which may interact with a programmable computer system such that the corresponding method is executed. Generally, the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention, when the computer program product runs on a computer. In other words, the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Claims (13)

  1. Device for aliasing correction in a wave field synthesis system with a wave field synthesis module (100) and an array of loudspeakers (708) for sound supply of a show area (702), wherein the wave field synthesis module (100) is configured to receive an audio signal (102) associated with a virtual sound source and source position information (104) associated with the virtual sound source, and to calculate, taking into account loudspeaker position information (106), component signals (110) for the loudspeakers (708) due to the virtual sound source, comprising:
    means for ascertaining (120) an aliasing filter property (130) specific for a virtual sound source using the source position information (104), wherein the means for ascertaining is configured to obtain, for the loudspeakers (708) in the array, wave field synthesis scaling values and wave field synthesis delay values (310) associated with the loudspeakers, and to ascertain the aliasing filter property (130) based on a listening point (P) in the show area (702) and the wave field synthesis scaling values and wave field synthesis delay values (310);
    characterized in that the device comprises an adaptive anti-aliasing filter (140) for adaptive filtering of the audio signal (102) associated with the virtual sound source or the component signals (110) associated with the virtual sound source, wherein the adaptive anti-aliasing filter (140) is adjusted according to the aliasing filter property (130) specific for the virtual sound source to effect an aliasing correction.
  2. Device according to claim 1, wherein the means for ascertaining (120) is configured to calculate the aliasing filter property (130) using an impulse response for a channel between the virtual sound source and a listening point (P) in the reproduction space (702).
  3. Device according to claim 1 or claim 2, wherein the means for ascertaining (120) is configured to ascertain propagation delay values and propagation scaling values (340) between the loudspeakers (708) and the listening point (P) to combine the wave field synthesis delay value and the propagation delay value for each loudspeaker to obtain a total delay value, to combine the wave field synthesis scaling value and the propagation scaling value for each loudspeaker to obtain a total scaling value, and to ascertain an impulse response to the virtual sound source and the listening point (P) using the total scaling values and the total delay values for the loudspeakers (708).
  4. Device according to claim 3, wherein the means for ascertaining (120) is configured to translate a time signal with time values the time coordinates of which are defined by the total delay values, and the amplitudes of which are defined by the total scaling values, into a spectral representation and to ascertain, from the spectral representation, an aliasing filter frequency (390) as aliasing filter property (130).
  5. Device according to claim 2, wherein the means for ascertaining (120) is configured to ascertain, from a spectral representation of the impulse response, an aliasing filter frequency (390) as aliasing filter property (130).
  6. Device according to claim 4 or 5, wherein the means for ascertaining (120) is configured to ascertain, as aliasing filter frequency (390), a frequency which is in a range limited, towards low frequencies, by an increase of the spectral representation, and limited, towards higher frequencies, by a fluctuation of the spectral representation.
  7. Device according to claim 6, wherein the means for ascertaining (120) is configured to select, as aliasing filter property (130), a frequency deviating by less than ± 25 % from a frequency value corresponding to a transitional value between an increase of the spectral representation and a fluctuation of the spectral representation.
  8. Device according to claim 4 or 5, wherein the means for ascertaining (120) is configured to ascertain, for a virtual sound source, aliasing filter properties (130) for different listening points in the reproduction space (702), and to average the different aliasing filter properties to obtain the aliasing filter property specific for the virtual sound source.
  9. Device according to one of claims 1 to 7, wherein the means for ascertaining (120) is configured to calculate different aliasing filter properties for virtual sound sources at different virtual positions, and wherein the adaptive anti-aliasing filter (140) is configured to filter the audio signals (102) associated with the virtual sound sources or the component signals (110) associated with the virtual sound sources using the different aliasing filter properties.
  10. Device according to claim 9, wherein the adaptive anti-aliasing filter (140) is configured to filter the audio signals (102) associated with the virtual sound sources separately using the different aliasing filter properties to obtain aliasing-filtered audio signals, and wherein the wave field synthesis module (100) is configured to calculate the component signals (110) for each virtual sound source using the filtered audio signals, and to combine component signals belonging to a loudspeaker to obtain a loudspeaker signal (160) for the loudspeaker.
  11. Device according to claim 9, wherein the adaptive anti-aliasing filter (140) is configured to filter component signals (110) calculated for a first virtual source using the anti-aliasing filter property (130) specific for the first virtual source so as to obtain first aliasing-filtered component signals for the first virtual source and to obtain, for a second virtual source, second aliasing-filtered component signals for the second virtual source, wherein the wave field synthesis module (100) is further configured to combine component signals (110), belonging to a loudspeaker, of the first aliasing-filtered component signals and the second aliasing-filtered component signals to obtain a loudspeaker signal (160) for the loudspeaker.
  12. Method for aliasing filter correction in a wave field synthesis system with a wave field synthesis module (100) and an array of loudspeakers (708) for sound supply of a show area (702), wherein the wave field synthesis module (100) is configured to receive an audio signal (102) associated with a virtual sound source and source position information (104) associated with the virtual sound source, and to calculate, taking into account loudspeaker position information (106), component signals (110) for the loudspeakers due to the virtual sound source, comprising:
    ascertaining aliasing filter properties (130) specific for a virtual sound source using the source position information (104), wherein the step of ascertaining comprises obtaining wave field synthesis scaling values and wave field synthesis delay values (310) associated with the loudspeakers, so that the aliasing filter property (130) is ascertained based on a listening point (P) in the show area (702) and the wave field synthesis scaling values and wave field synthesis delay values (310); and
    characterized by the step of:
    adaptive filtering of the audio signals (102) associated with the virtual sound source or the component signals (110) associated with the virtual sound source, wherein the adaptive filtering is performed according to the aliasing filter property (130) specific for the source to effect an aliasing correction.
  13. Computer program with a program code for performing the method according to claim 12, when the computer program runs on a computer.
EP07700228A 2006-03-06 2007-01-17 Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics Expired - Fee Related EP1972181B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006010212A DE102006010212A1 (en) 2006-03-06 2006-03-06 Apparatus and method for the simulation of WFS systems and compensation of sound-influencing WFS properties
PCT/EP2007/000385 WO2007101498A1 (en) 2006-03-06 2007-01-17 Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics

Publications (2)

Publication Number Publication Date
EP1972181A1 EP1972181A1 (en) 2008-09-24
EP1972181B1 true EP1972181B1 (en) 2010-12-22

Family

ID=37898264

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07700228A Expired - Fee Related EP1972181B1 (en) 2006-03-06 2007-01-17 Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics

Country Status (6)

Country Link
US (1) US8363847B2 (en)
EP (1) EP1972181B1 (en)
JP (1) JP4977720B2 (en)
CN (1) CN101406075B (en)
DE (2) DE102006010212A1 (en)
WO (1) WO2007101498A1 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033239A1 (en) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for controlling a plurality of loudspeakers by means of a graphical user interface
DE102005033238A1 (en) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for driving a plurality of loudspeakers by means of a DSP
DE102006053919A1 (en) * 2006-10-11 2008-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a number of speaker signals for a speaker array defining a playback space
KR101268779B1 (en) * 2009-12-09 2013-05-29 한국전자통신연구원 Apparatus for reproducing sound field using loudspeaker array and the method thereof
JP2013051643A (en) * 2011-08-31 2013-03-14 Nippon Hoso Kyokai <Nhk> Speaker array drive unit and speaker array driving method
WO2013068402A1 (en) 2011-11-10 2013-05-16 Sonicemotion Ag Method for practical implementations of sound field reproduction based on surface integrals in three dimensions
DE102012200512B4 (en) 2012-01-13 2013-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for calculating loudspeaker signals for a plurality of loudspeakers using a delay in the frequency domain
WO2013149867A1 (en) * 2012-04-02 2013-10-10 Sonicemotion Ag Method for high quality efficient 3d sound reproduction
WO2014007724A1 (en) * 2012-07-06 2014-01-09 Dirac Research Ab Audio precompensation controller design with pairwise loudspeaker channel similarity
CN103118323A (en) * 2012-12-28 2013-05-22 中国科学院声学研究所 Web feature service system (WFS) initiative room compensation method and system based on plane wave decomposition (PWD)
PL3028275T3 (en) * 2013-08-23 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal using a combination in an overlap range

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2985675B2 (en) * 1994-09-01 1999-12-06 日本電気株式会社 Method and apparatus for identifying unknown system by band division adaptive filter
EP1209949A1 (en) * 2000-11-22 2002-05-29 Technische Universiteit Delft Wave Field Synthesys Sound reproduction system using a Distributed Mode Panel
JP4826693B2 (en) * 2001-09-13 2011-11-30 オンキヨー株式会社 Sound playback device
JP3940662B2 (en) * 2001-11-22 2007-07-04 株式会社東芝 Acoustic signal processing method, acoustic signal processing apparatus, and speech recognition apparatus
US20030147539A1 (en) * 2002-01-11 2003-08-07 Mh Acoustics, Llc, A Delaware Corporation Audio system based on at least second-order eigenbeams
DE10254470B4 (en) * 2002-11-21 2006-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining an impulse response and apparatus and method for presenting an audio piece
US7336793B2 (en) * 2003-05-08 2008-02-26 Harman International Industries, Incorporated Loudspeaker system for virtual sound synthesis
DE10321986B4 (en) * 2003-05-15 2005-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for level correcting in a wave field synthesis system
DE10321980B4 (en) * 2003-05-15 2005-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for calculating a discrete value of a component in a loudspeaker signal
DE10351793B4 (en) * 2003-11-06 2006-01-12 Herbert Buchner Adaptive filter device and method for processing an acoustic input signal
JP2006005868A (en) * 2004-06-21 2006-01-05 Denso Corp Vehicle notification sound output device and program

Also Published As

Publication number Publication date
CN101406075B (en) 2010-12-01
US20090220111A1 (en) 2009-09-03
WO2007101498A1 (en) 2007-09-13
US8363847B2 (en) 2013-01-29
CN101406075A (en) 2009-04-08
DE102006010212A1 (en) 2007-09-20
EP1972181A1 (en) 2008-09-24
JP4977720B2 (en) 2012-07-18
DE502007006021D1 (en) 2011-02-03
JP2009529262A (en) 2009-08-13

Similar Documents

Publication Publication Date Title
EP1972181B1 (en) Device and method for simulating wfs systems and compensating sound-influencing wfs characteristics
EP1637012B1 (en) Wave field synthesis device and method for driving an array of loudspeakers
EP1671516B1 (en) Device and method for producing a low-frequency channel
EP1525776B1 (en) Device for correcting the level in a wave field synthesis system
EP1977626B1 (en) Method for recording and reproducing a sound source with time-variable directional characteristics
EP1844628B1 (en) Device and method for activating an electromagnetic field synthesis renderer device with audio objects
EP1800517B1 (en) Device and method for controlling a public address system, and a corresponding public address system
DE10254404B4 (en) Audio reproduction system and method for reproducing an audio signal
EP1844627B1 (en) Device and method for simulating an electromagnetic field synthesis system
EP1723825B1 (en) Apparatus and method for controlling a wave field synthesis rendering device
DE10321980B4 (en) Apparatus and method for calculating a discrete value of a component in a loudspeaker signal
EP2754151B1 (en) Device, method and electro-acoustic system for prolonging a reverberation period
DE10254470A1 (en) Apparatus and method for determining an impulse response and apparatus and method for presenting an audio piece
EP2503799B1 (en) Method and system for calculating synthetic head related transfer functions by means of virtual local sound field synthesis

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080805

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): DE FR GB

RIN1 Information on inventor provided before grant (corrected)

Inventor name: DEGUARA, JOACHIM

Inventor name: RODIGAST, RENE

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

17Q First examination report despatched

Effective date: 20090826

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

DAX Request for extension of the european patent (deleted)
GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE FR GB

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REF Corresponds to:

Ref document number: 502007006021

Country of ref document: DE

Date of ref document: 20110203

Kind code of ref document: P

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502007006021

Country of ref document: DE

Effective date: 20110203

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20110923

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502007006021

Country of ref document: DE

Effective date: 20110923

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20210120

Year of fee payment: 15

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20210120

Year of fee payment: 15

Ref country code: GB

Payment date: 20210122

Year of fee payment: 15

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502007006021

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20220117

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220117

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220802

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220131