EP1972181A1 - Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften - Google Patents

Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften

Info

Publication number
EP1972181A1
EP1972181A1 EP07700228A EP07700228A EP1972181A1 EP 1972181 A1 EP1972181 A1 EP 1972181A1 EP 07700228 A EP07700228 A EP 07700228A EP 07700228 A EP07700228 A EP 07700228A EP 1972181 A1 EP1972181 A1 EP 1972181A1
Authority
EP
European Patent Office
Prior art keywords
source
aliasing filter
virtual
field synthesis
aliasing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP07700228A
Other languages
English (en)
French (fr)
Other versions
EP1972181B1 (de
Inventor
Joachim Deguara
René RODIGAST
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP1972181A1 publication Critical patent/EP1972181A1/de
Application granted granted Critical
Publication of EP1972181B1 publication Critical patent/EP1972181B1/de
Ceased legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/09Electronic reduction of distortion of stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Definitions

  • the present invention relates to wave field synthesis systems, and more particularly to aliasing correction in wave field synthesis systems.
  • WFS Wave Field Synthesis
  • Applied to the acoustics can be simulated by a large number of speakers, which are arranged side by side (a so-called speaker array), any shape of an incoming wavefront.
  • a so-called speaker array any shape of an incoming wavefront.
  • the audio signals of each speaker must be fed with a time delay and amplitude scaling so that the radiated sound fields of each speaker properly overlap.
  • the contribution to each loudspeaker is calculated separately for each source and the resulting signals are added together.
  • reflections can also be reproduced as additional sources via the loudspeaker array. The cost of the calculation therefore depends heavily on the number of sound sources, the reflection characteristics of the recording room and the number of speakers.
  • the advantage of this technique is in particular that a natural spatial sound impression over a large area of the playback room is possible.
  • the direction and distance of 5 sound sources are reproduced very accurately.
  • virtual sound sources can even be positioned between the real speaker array and the listener.
  • the technique of wave field synthesis can also be used advantageously to supplement a visual perception with a corresponding spatial audio perception. So far, the production was in virtual
  • Wave Field Synthesis In the audio field, the technique of Wave Field Synthesis (WFS) can be used to achieve a good spatial sound for a large listener area.
  • wave field synthesis is based on the principle of Huygens, according to which wavefronts can be formed and built up by superimposing elementary waves. After mathematically exact theoretical description, infinitely many sources in infinitely small distance would have to be used for the generation of the elementary waves. Practically, however, many speakers are finally used at a finite distance from each other. Each of these speakers is driven according to the WFS principle with an audio signal from a virtual source having a particular delay and a certain level. Levels and delays are usually different for all speakers.
  • the wave field synthesis system operates on the basis of the Huygens principle and reconstructs a given waveform of, for example, a virtual source located at a certain distance from a demonstration area or a listener in the show area by a plurality of single waves.
  • the wave field synthesis algorithm thus obtains information about the actual position of a single loudspeaker from the loudspeaker array, in order then to calculate a component signal for this single loudspeaker which this loudspeaker ultimately has to emit, so that the listener can superimpose the loudspeaker signal on the loudspeaker signal a loudspeaker with the loudspeaker signals of the other active loudspeakers performs a reconstruction in that the listener has the impression that he is not "sonicated" by many individual speakers, but merely borrowed from a single speaker at the position of the virtual source.
  • each virtual source for each loudspeaker that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc.
  • the contribution from each virtual source for each loudspeaker is calculated to then add up the component signals
  • the contribution from each virtual source for each loudspeaker that is, the component signal of the first virtual source for the first loudspeaker, the second virtual source for the first loudspeaker, etc.
  • the computation of the component signals is usually carried out in practice by applying a delay and a scaling value to the audio source assigned to a virtual source, depending on the position of the virtual source and the position of the loudspeaker, at a particular time, a delayed and / or scaled audio signal the virtual source that directly represents the loudspeaker signal when there is only one virtual source, or that adds to other component signals for the considered loudspeaker from other virtual sources then to the loudspeaker signal for the considered loudspeaker.
  • Typical wave field synthesis algorithms work regardless of how many speakers are present in the speaker array. They are.
  • the underlying theory of wave field synthesis is that any sound field can be accurately reconstructed by an infinite number of individual speakers, with the individual single-loudspeakers being arranged infinitely close to each other. In practice, however, neither the infinitely high number nor the infinitely close arrangement can be realized. Instead, there are a limited number of loudspeakers, which are also arranged at certain predetermined distances from each other. Thus, in real systems, only an approximation to the actual waveform that would occur if the virtual source were actually present, would be a real source.
  • the object of the present invention is to provide a concept for aliasing correction in a wave field synthesis system which reduces quality variations in the perceived sound.
  • the present invention is based on the finding that aliasing correction in a wave field synthesis system is improved by determining the virtual source specific aliasing filter property using the source position information.
  • This aliasing filter property which is e.g. B. the aliasing frequency can be determined using the source position information.
  • This aliasing filter property is used for an adaptive anti-aliasing filter to adaptively filter the audio signal associated with the sources or the component signals associated with the sources.
  • a listening point in the playback room is selected, and the wide field synthesis module provides scaling and delay values for the individual speakers corresponding to a virtual source.
  • the amplitude value and the time value of the arrival of the pulse at the listening point are calculated for a given pulse.
  • the individual impulses of the individual loudspeakers do not arrive simultaneously at the listening point and instead supply time signals and time values. These time signals are transformed into a spectral representation, from which the aliasing frequency is determined.
  • This aliasing frequency marks the area between a fluo- tuierenden behavior of the spectral representation and an increasing behavior to lower frequencies.
  • This aliasing frequency is now used as an input for an anti-aliasing filter, which corrects the level below the aliasing frequency, eg attenuates with 3dB per octave.
  • each virtual source is assigned an aliasing frequency. This makes it possible to dynamically filter even moving virtual sources and thus discolorations of sound as a result of the movement are suppressed. In previously used static filters this is not possible and as a result these static filters lead to a distortion of the sound during a movement of the virtual sources.
  • the aliasing filter in a computer system one can perform the filtering in real time with the movement of the virtual sources. In order to save computing time, in a further embodiment it is not possible to calculate the aliasing frequency continuously for all possible positions of the virtual source, but instead to determine it only for discrete points. These obtained aliasing frequencies may be e.g. be included in a table so that further calculations are omitted. The quality achieved is given by the density of the discrete points.
  • aliasing filtering can also be performed with respect to different listening points.
  • This averaged aliasing frequency changes as the position of the virtual source changes, and can be corrected as previously described, depending on the position of the virtual source.
  • the characteristic of this bass tone boost is dynamic and depends on different factors. These are z. B. the speaker density and the angle of incidence of the virtual sound sources.
  • the aliasing frequency changes with the positioning of the virtual sound sources and is therefore dynamic. This dynamic is not taken into account in the current calculation.
  • a major disadvantage of previous WFS systems is that swelling movements are perceivable as tone color changes. These are the result of the static filter and the dynamic change of the aliasing frequency and the bass boost. These sound color changes are particularly significant when the virtual source moves parallel to the speakers.
  • Another disadvantage of the existing technology is that different speaker setups (with different speaker distances) influence the aliasing frequency and the bass boost, which until now had to be adjusted manually on the respective setup.
  • 1a is a block diagram of the inventive apparatus for aliasing filtering in a wave field synthesis system, wherein the component signals are filtered;
  • FIG. 1b shows a block diagram of the inventive apparatus for aliasing filtering in a wave field synthesis system, wherein the audio signals associated with a virtual source are filtered;
  • FIG. 2 is a schematic diagram in a wave-field synthesis environment usable for the present invention;
  • 3a shows a block diagram of a device according to the invention for determining the aliasing frequency
  • FIG. 3b is a diagram for explaining the propagation delay and propagation scaling value from the speakers to the listening point;
  • FIG. 3c shows an example of 10 loudspeakers, where the scaling and delay values of the individual loudspeakers are combined to form a time signal at the listening point, from which one can look for the spectral
  • FIG. 4 is a block diagram for determining the aliasing frequencies corresponding to various virtual sources
  • Fig. 5 is a block diagram for averaging the aliasing filter characteristics for various listening points
  • Fig. 6 is a block diagram of an adaptive filter for multiple virtual sources.
  • FIG. 7 shows a basic block diagram of a wave field synthesis system with wave field synthesis module and loudspeaker array in a demonstration area.
  • the wave field synthesis system has a speaker array 700 placed with respect to a demonstration area 702.
  • the loudspeaker array shown in FIG. 7, which is a 360 ° array includes four array sides 700a, 700b, 700c and 70Od. If the demonstration area 702 z.
  • the cinema screen is on the same side of the screening area 702 on which also the sub-array 700 c is arranged with respect to the conventions front / back or right / left. In this case, the observer who is sitting at the so-called optimal point P in the demonstration area 702 would see to the front, ie to the screen.
  • Each loudspeaker array consists of a number of different individual loudspeakers 708 which are each driven with their own loudspeaker signals which are provided by a wave field synthesis module 710 via a data bus 712 shown only schematically in FIG.
  • the wave field synthesis module is configured to use the information about e.g. B.
  • the wave field synthesis module can also receive further inputs, such as information about the room acoustics of the demonstration area, etc.
  • the following embodiments of the present invention may in principle be performed for each point P in the demonstration area.
  • the optimum point can thus lie anywhere in the demonstration area 702. It can also be several optimal points, z. B. on an optimal line, give. However, in order to obtain the best possible ratios for as many points as possible in the demonstration area 702, it is preferable to use the optimum point or the optimal line in the middle or at the center of gravity of the wave field synthesis system, that is defined by the speaker sub-arrays 700a, 700b, 700c, 70Od.
  • FIG. 1a is a block diagram of the aliasing correction apparatus of the present invention in a wave-field synthesis system set forth with reference to FIG.
  • the center of a wave field synthesis environment is a wave field synthesis module 100 having an input for the audio signals 102 of the virtual sources, an input for the position data 104 of the virtual sources, an input for the position data of the speakers 106 and optionally other inputs 108, the z. B. provide information about the room acoustics has.
  • the wave-field synthesis module 100 provides the component signals 110 as well as the corresponding delay and scale values for the individual speakers.
  • AFE aliasing filter characteristic
  • FIG. 1 b shows a device according to the invention in which the component signals 110 are not filtered by the adaptive anti-aliasing filter 140, but the audio signals 102 are filtered in the adaptive anti-aliasing filter 140 for virtual sources.
  • the filtered audio signal 165 is input to the wave field synthesis module 100 to generate filtered component signals and to generate the corresponding loudspeaker signals 160 in the component signal combining unit 150.
  • the wave field synthesis module 100 receives an audio signal and position information from each virtual source.
  • this figure shows the audio signal of the first source 212 and the position of the first source 214, the audio signal of the second source 222 and the position information of the second source 224 as well as the audio signal of the last source 232 and the position information of the last source 234.
  • the wave field synthesis module 100 determines for each virtual source the component signals for each speaker.
  • the component signals of the first virtual source KSI1 to KSn 240, of the second virtual source KS21 to KS2n 250 and the component signals of the last virtual source KSmI to KSmn 260 are shown by way of example.
  • the wave field synthesis module 100 generates a wave field synthesis scaling value (WFS-SW) and a wave field synthesis delay value (WFS-VW) 310 for a virtual source. From the position of the listening point 320 and the position information of the speakers 330, a propagation delay value (AVZW) is generated in the device 340. and a spread scaling value (ASKW). These values, along with the WFS-SW and the WFS-VW 310, serve as input to the device 350, which determines a total scaling value (GSW) as well as a total delay value (GVW).
  • WFS-SW wave field synthesis scaling value
  • WFS-VW wave field synthesis delay value
  • a time signal and corresponding time values are determined in the device 360, which is converted into a spectral representation in the device 370. Finally, this spectral representation is evaluated in the device 380 and a corresponding aliasing frequency 390 is determined.
  • each speaker 708 is shown, all of which are fed with their own loudspeaker signal, generated by the wave field synthesis module 100. So each speaker can be modeled as a point wave that outputs a concentric wave field. Following the law of the concentric wave field, the level of the sound field decreases with the distance r to the loudspeakers, namely by a factor of 1 / r 2 . This results in a dependence of l / r on the signal. Taking into account the propagation velocity of the sound wave, it can thus be determined when (propagation delay value) with respect to the loudspeaker which signal arrives in which scaling (propagation scaling value) at the listening point P.
  • FIG. 3c shows a concrete example of a 10-speaker demonstration area 702, from which the loudspeakers 4 to 7 send out a signal of a virtual source having a certain scaling value and a certain delay value 392.
  • a total delay and an overall scaling value at the interception point 394 After taking into account the time delay and the attenuation due to the propagation from the loudspeakers to the listening point P, one obtains for each loudspeaker a total delay and an overall scaling value at the interception point 394. If these total scaling values are plotted according to the total delay values as the time co-ordinate, the time signal at the bottom left in Fig. 3c, which is referred to as IR (impulse response) at the listening point.
  • IR impulse response
  • the first signal with the smallest time value corresponds to the signal emitted by loudspeaker 6, which according to table 392 has a scaling value of 0.8 and a delay value of 10 ms.
  • the second signal in 394 is the signal from loudspeaker 5, which according to Table 392 has a scaling value of 0.7 and a delay value of 12ms.
  • the signals then follow from the loudspeaker 4 and from the loudspeaker 7, whose scaling and delay values are also indicated in table 392.
  • This time signal is converted into a spectral representation 396 characterized by two regions. At high frequencies, the spectral representation shows a fluctuating behavior, and too low Frequencies an increasing behavior. In the transition area between the areas is the aliasing frequency.
  • This aliasing frequency then serves as an input signal for a corresponding correction filter 398. This filter serves to bring about a lowering of the low frequency components by, for example, 3dB per octave.
  • Wave field synthesis module 100 provides scaling and delay values for each virtual source and speaker.
  • both the scaling and delay values of the first virtual source 402 and the scaling and delay values of the last virtual source 404 are shown.
  • a set of data is thus obtained for each virtual source, which in turn serves as inputs to the means 350 for determining the total scaling values and the total delay values.
  • the device 360 determines separately for each virtual source corresponding time signals and time values, which in turn are converted into a spectral representation in the device 370. These spectral representations will be evaluated in the device 380 so as to obtain aliasing frequencies 410 for each virtual source.
  • FIG. 5 shows a block diagram in which aliasing frequencies are determined for each listening point and then an average aliasing frequency is determined by averaging.
  • the scaling values and delay values 310 for a virtual source serve as inputs to a means 510 for determining a source-specific aliasing filter characteristic for a first listening point, and as inputs to a means for determining a source-specific aliasing filter characteristic for a second listening point 520.
  • the scaling and delay values are also determined in a corresponding means for determining a source-specific aliasing filter property.
  • the filter properties thus obtained for each listening point are averaged in the device 530 over all the listening points. This gives the entire listening area 702 an aliasing filter property for each virtual source.
  • This averaged aliasing filter property may be e.g. B. be an average aliasing filter frequency.
  • Fig. 6 shows a block diagram of an adaptive filter for virtual sources.
  • the input signals to this virtual source adaptive filter 140 are both the aliasing frequencies fi to f n and the component signals 110, which are KSIl to KSIn for the first virtual source, KS21 to KS2n for the second virtual source, and KSmI to KSmn for the last virtual source.
  • the output signals of the adaptive filter 140 are modified component signals 610, which in turn serve as input to the means 150 for combining the component signals to finally provide the loudspeaker signals 160.
  • the aliasing frequency determined in this algorithm is the dynamically changing frequency below which WFS playback produces a bass boost of, for example, 3dB per octave. Above this frequency, aliasing artifacts lead to frequency cancellations and comb filter effects. As already stated, a dynamic filter is calculated by analyzing this frequency, which compensates the bass boost source dependent. Depending on the speaker setup used, this boost does not always correspond to the theoretical value of 3dB per octave. This dynamic correction filter is constantly updated during source movements. The result is the optimal bass correction for the respective source position. In the technical realization, the source position-dependent scaling and delay values of the signal are constantly determined for this purpose.
  • a correction filter is calculated and constantly updated (source position-dependent).
  • the speaker signals for this source are calculated by this correction filter.
  • an optimum sound for different loudspeaker setups including the source-position-dependent aliasing frequency is thus achieved in the calculation of the loudspeaker signals.
  • a complex impulse response is thus calculated in a preferred embodiment with knowledge of the position of a virtual sound source, as well as the loudspeaker and room parameters. Simulations and auralizations of WFS sound fields are possible with this impulse response.
  • the system also provides information on the dynamic control of the compensation filter (3dB filter) for the WFS.
  • An optimized filter improves the sound quality of a WFS system.
  • the scheme according to the invention can also be implemented in software.
  • the implementation may be on a digital storage medium, in particular a floppy disk or a CD with electronically readable control signals, which may cooperate with a programmable computer system such that the corresponding method is executed.
  • the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention, when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)

Abstract

Eine Aliasing-Korrektur in einem Wellenfeldsynthesesystem wird dadurch erreicht, dass die für eine virtuelle Quelle spezifische Aliasing-Filtereigenschaft ermittelt wird. Diese Aliasing-Filtereigenschaft, die z. B. die Aliasing-Frequenz sein kann, wird mit Hilfe der Quellenpositionsinformation ermittelt. Diese Aliasing-Filtereigenschaft wird für ein adaptives Anti-Aliasing-Filter zum adaptiven Filtern des der Quelle zugeordneten Audiosignals oder der der Quelle zugeordneten Komponentensignale verwendet.

Description

Vorrichtung und Verfahren zur Simulation von WFS-Systemen und Kompensation von klangbeeinflussenden WFS-Eigenschaften
Beschreibung
Die vorliegende Erfindung bezieht sich auf Wellenfeldsyn- thesesysteme und insbesondere auf das Aliasing-Korrigieren in Wellenfeldsynthesesystemen.
Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektronik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.
Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardi- siert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.
Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A. J.; de Vries, D.; Vogel, P.: Acoustic control by Wave- field Synthesis. JASA 93, 1993).
Infolge der enormen Anforderungen dieser Methode an Rech- nerleistung und Übertragungsraten wurde die Wellenfeldsyn- these bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser
Technologie in konkreten Anwendungen. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den
Konsumerbereich auf den Markt kommen.
Die Grundidee von WFS basiert auf der Anwendung des Huy- gens' sehen Prinzips der Wellentheorie:
Jeder Punkt, der von einer Welle erfasst wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray) , jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für je- de Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. In einem Raum mit reflektierenden Wänden können auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab. Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von 5 Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktio-
10 niert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt. i5
Die Technik der Wellenfeldsynthese kann jedoch ebenfalls vorteilhaft eingesetzt werden, um eine visuelle Wahrnehmung um eine entsprechende räumliche Audiowahrnehmung zu ergänzen. Bisher stand bei der Produktion in virtuellen
20 Studios die Vermittlung eines authentischen visuellen Eindrucks der virtuellen Szene im Vordergrund. Der zum Bild passende akustische Eindruck wird in der Regel durch manuelle Arbeitsschritte in der sogenannten Postproduktion nachträglich dem Audiosignal aufgeprägt oder als zu aufwen-
25 dig und zeitintensiv in der Realisierung eingestuft und daher vernachlässigt. Dadurch kommt es üblicherweise zu einem Widerspruch der einzelnen Sinnesempfindungen, der dazu führt, dass der entworfene Raum, d. h. die entworfene Szene, als weniger authentisch empfunden wird.
30
In der Fachveröffentlichung „Subjective experiments on the effects of combining spatialized audio and 2D video projec- tion in audio-visual Systems", W. de Bruijn und M. Boone, AES Convention paper 5582, 10. bis 13. Mai 2002, München,
35 werden subjektive Experimente bezüglich der Auswirkungen des Kombinierens von räumlichem Audio und einer zweidimensionalen Videoprojektion in audiovisuellen Systemen dargestellt. Insbesondere wird hervorgehoben, dass zwei in einer unterschiedlichen Entfernung zu einer Kamera stehende Sprecher, die nahezu hintereinander stehen, von einem Betrachter besser verstanden werden können, wenn mit Hilfe der Wellenfeldsynthese die zwei hintereinander stehenden Perso- nen als unterschiedliche virtuelle Schallquellen aufgefasst und rekonstruiert werden. In diesem Fall hat sich durch subjektive Tests herausgestellt, dass ein Zuhörer die beiden gleichzeitig sprechenden Sprecher getrennt voneinander besser verstehen und unterscheiden kann.
Im Audiobereich lässt sich also durch die Technik der Wellenfeldsynthese (WFS) ein guter räumlicher Klang für eine großen Hörerbereich erzielen. Wie es ausgeführt worden ist, basiert die Wellenfeldsynthese auf dem Prinzip von Huygens, nach welchem sich Wellenfronten durch Überlagerung von Elementarwellen formen und aufbauen lassen. Nach mathematisch exakter theoretischer Beschreibung müssten unendlich viele Quellen in unendlich kleinem Abstand für die Erzeugung der Elementarwellen genutzt werden. Praktisch werden jedoch endlich viele Lautsprecher in einem endlich kleinen Abstand zueinander genutzt. Jeder dieser Lautsprecher wird gemäß dem WFS-Prinzip mit einem Audiosignal von einer virtuellen Quelle, das ein bestimmtes Delay und einen bestimmten Pegel hat, angesteuert. Pegel und Delays sind in der Regel für alle Lautsprecher unterschiedlich.
Wie es bereits ausgeführt worden ist, arbeitet das Wellen- feldsynthesesystem auf der Basis des Huygens-Prinzips und rekonstruiert eine gegebene Wellenform beispielsweise einer virtuellen Quelle, die in einem bestimmten Abstand zu einem Vorführbereich bzw. zu einem Hörer in dem Vorführbereich angeordnet ist durch eine Vielzahl von Einzelwellen. Der Wellenfeldsynthesealgorithmus erhält somit Informationen über die tatsächliche Position eines Einzellautsprechers aus dem Lautsprecherarray, um dann für diesen Einzellautsprecher ein Komponentensignal zu berechnen, das dieser Lautsprecher dann letztendlich abstrahlen muss, damit beim Zuhörer eine Überlagerung des Lautsprechersignals von dem einen Lautsprecher mit den Lautsprechersignalen der anderen aktiven Lautsprecher eine Rekonstruktion dahingehend durchführt, dass der Hörer den Eindruck hat, dass er nicht von vielen Einzellautsprechern „beschallt" wird, sondern ledig- lieh von einem einzigen Lautsprecher an der Position der virtuellen Quelle.
Für mehrere virtuelle Quellen in einem Wellenfeldsynthese- setting wird der Beitrag von jeder virtuellen Quelle für jeden Lautsprecher, also das Komponentensignal der ersten virtuellen Quelle für den ersten Lautsprecher, der zweiten virtuellen Quelle für den ersten Lautsprecher, etc. berechnet, um dann die Komponentensignale aufzuaddieren, um schließlich das tatsächliche Lautsprechersignal zu erhal- ten. Im Falle von beispielsweise drei virtuellen Quellen würde die Überlagerung der Lautsprechersignale aller aktiven Lautsprecher beim Hörer dazu führen, dass der Hörer nicht den Eindruck hat, dass er von einem großen Array von Lautsprechern beschallt wird, sondern dass der Schall, den er hört, lediglich von drei an speziellen Positionen positionierten Schallquellen kommt, die gleich den virtuellen Quellen sind.
Die Berechnung der Komponentensignale erfolgt in der Praxis meist dadurch, dass das einer virtuellen Quelle zugeordnete Audiosignal je nach Position der virtuellen Quelle und Position des Lautsprechers zu einem bestimmten Zeitpunkt mit einem Verzögerungs- und einem Skalierungswert beaufschlagt wird, um ein verzögertes und/oder skaliertes Audiosignal der virtuellen Quelle zu erhalten, das das Lautsprechersignal unmittelbar darstellt, wenn nur eine virtuellen Quelle vorhanden ist, oder das nach Addition mit weiteren Komponentensignalen für den betrachteten Lautsprecher von anderen virtuellen Quellen dann zum Lautsprechersignal für den betrachteten Lautsprecher beiträgt.
Typische Wellenfeldsynthesealgorithmen arbeiten unabhängig davon, wie viele Lautsprecher im Lautsprecherarray vorhan- den sind. Die der Wellenfeldsynthese zugrundeliegende Theorie besteht darin, dass jedes beliebige Schallfeld durch eine unendlich hohe Anzahl von Einzellautsprechern exakt rekonstruiert werden kann, wobei die einzelnen Einzellaut- Sprecher unendlich nahe zueinander angeordnet sind. In der Praxis kann jedoch weder die unendlich hohe Anzahl noch die unendlich nahe Anordnung realisiert werden. Statt dessen existiert eine begrenzte Anzahl von Lautsprechern, die zudem in bestimmten vorgegebenen Abständen zueinander ange- ordnet sind. Damit wird in realen Systemen immer nur eine Annäherung an die tatsächliche Wellenform erreicht, die stattfinden würde, wenn die virtuelle Quelle tatsächlich vorhanden wäre, also eine reale Quelle sein würde.
Aufgrund von Lautsprecher-Array-Effekten kommt es unterhalb einer Aliasing-Frequenz zu einer Summierung der Tieftonanteile von beispielsweise 3dB pro Oktave. Diese Verstärkung ist eine Folge der Schallwellenüberlagerungen für tiefe Töne in der WFS-Wiedergabe. Deshalb wird für die WFS- Wiedergabe unterhalb der Aliasing-Frequenz ein statisches Filter berechnet, welches den Tieftonanteil korrigiert, d.h. absenkt. Dieses Filter wird in Abhängigkeit von dem Lautsprecherabstand berechnet und die Justierung der Aliasing-Frequenz erfolgt momentan manuell nach dem Höreindruck des Tonmeisters.
Es hat sich herausgestellt, dass die manuelle Einstellung subjektiv und damit aufwändig ist und ferner zu starken Qualitätsschwankungen des wahrgenommenen Tons geführt hat.
Die Fachveröffentlichungen von E. Corteel, U. Horbach, R. S. Pellegrini: „Multichannel Inverse Filtering of Multiex- citer Distributed Mode Loudspeakers for Wave Field Synthe- sis", AES Convention paper 5611, 10. bis 13. Mai, München, und U. Horbach, E. Corteel, D. de Vries: „Spatial Audio Re- production using Distributed Mode Loudspeaker Arrays", AES Conference paper, 1. bis 3. Juni, St. Petersburg, als auch das Patent DE 103 21 986 beziehen sich auf Amplituden bzw. Frequenzmanipulation zu Qualitätsverbesserungen in der WeI- lenfeldsynthese .
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Konzept zum Aliasing Korrigieren in einem Wellenfeldsynthe- sesystem zu schaffen, welches Qualitätsschwankungen im wahrgenommenen Ton reduziert.
Diese Aufgabe wird durch eine Vorrichtung gemäß Patentan- spruch 1, ein Verfahren gemäß Patentanspruch 13 oder ein Computerprogramm gemäß Patentanspruch 14 gelöst.
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass das Aliasing-Korrigieren in einem Wellenfeldsynthese- System dadurch verbessert wird, dass die für eine virtuelle Quelle spezifische Aliasing-Filtereigenschaft unter Verwendung der Quellpositionsinformation ermittelt wird.
Diese Aliasing-Filtereigenschaft, die z. B. die Aliasing- Frequenz sein kann, wird mit Hilfe der Quellenpositionsinformation ermittelt. Diese Aliasing-Filtereigenschaft wird für ein adaptives Anti-Aliasing-Filter zum adaptiven Filtern des der Quellen zugeordneten Audiosignals oder der der Quellen zugeordneten Komponentensignale verwendet.
In einem Ausführungsbeispiel der vorliegenden Erfindung wird ein Abhörpunkt im Wiedergaberaum gewählt und das WeI- lenfeldsynthesemodul liefert für eine virtuelle Quelle entsprechende Skalierungs- und Verzögerungswerte für die ein- zelnen Lautsprecher. Unter Benutzung der Schallausbreitungsgesetze werden daraus für einen bestimmten Impuls der Amplitudenwert und den Zeitwert des Eintreffens des Impulses am Abhörpunkt berechnet. Die einzelnen Impulse der einzelnen Lautsprecher kommen nicht zeitgleich am Abhörpunkt an und liefern stattdessen Zeitsignale und Zeitwerte. Diese Zeitsignale werden in eine spektrale Darstellung transformiert, aus der die Aliasing-Frequenz ermittelt wird. Diese Aliasing-Frequenz markiert den Bereich zwischen einem fluk- tuierenden Verhalten der Spektraldarstellung und einem anwachsendem Verhalten zu niederen Frequenzen. Diese Alia- sing-Frequenz dient nun als Eingabe für ein Anti-Aliasing- Filter, welches den Pegel unterhalb der Aliasing-Frequenz korrigiert, z.B. mit 3dB pro Oktave dämpft.
Ein Vorteil erfindungsgemäßer Ausführungsbeispiele besteht darin, dass jeder virtuellen Quelle eine Aliasing-Frequenz zugeordnet wird. Damit ist es möglich, auch bewegte virtu- eile Quellen dynamisch zu filtern und somit werden Klangverfärbungen infolge der Bewegung unterdrückt. In bisher benutzten statischen Filtern ist dies nicht möglich und infolgedessen führen diese statischen Filter zu einer Verfälschung des Klangs bei einer Bewegung der virtuellen Quel- len. Bei einer Implementierung des Aliasing-Filters in einem Computersystem, kann man dabei die Filterung zeitnah mit der Bewegung der virtuellen Quellen ausführen. Um Rechenzeit einzusparen, kann man in einem weiteren Ausführungsbeispiel die Aliasing-Frequenz nicht kontinuierlich für alle möglichen Positionen der virtuellen Quelle berechnen, sondern stattdessen nur für diskrete Punkte ermitteln. Diese erhaltenen Aliasing-Frequenzen können z.B. in eine Tabelle aufgenommen werden, so dass weitere Berechnungen entfallen. Die erreichte Qualität wird durch die Dichte der diskreten Punkte gegeben.
Ein weiterer Vorteil der vorliegenden Erfindung besteht darin, dass man das Aliasing-Filtern auch in Bezug verschiedene Abhörpunkte durchführen kann. Durch Mittelung dieser verschiedenen Aliasing-Frequenzen, die einer virtuellen Quelle zugeordnet sind, kann man eine gemittelte Aliasing-Frequenz für den gesamten Abhörraum ermitteln. Diese gemittelte Aliasing-Frequenz ändert sich wiederum bei einer Änderung der Position der virtuellen Quelle und kann wie zuvor beschrieben in Abhängigkeit von der Position der virtuellen Quelle korrigiert werden. Erfindungemäß wird also berücksichtigt, dass die Charakteristik dieser Tieftonanhebung dynamisch ist und von unterschiedlichen Faktoren abhängt. Dies sind z. B. die Lautsprecherdichte und der Einfallswinkel der virtuellen Schallquellen.
Die Aliasing-Frequenz ändert sich mit der Positionierung der virtuellen Schallquellen und ist folglich dynamisch. Diese Dynamik wird in der derzeitigen Berechnung nicht be- rücksichtigt. Ein wesentlicher Nachteil bisheriger WFS- Systeme ist, das Quellbewegungen als Klangfarbenänderungen wahrnehmbar sind. Diese sind die Folge des statischen Filters und der dynamischen Änderung der Aliasing-Frequenz und der Bass Anhebung. Besonders signifikant sind diese Klang- farbenänderungen, wenn sich die virtuelle Quelle parallel zu den Lautsprechern bewegt. Ein weiterer Nachteil der bestehenden Technik besteht darin, dass verschiedene Lautsprecher Setups (mit unterschiedlichen Lautsprecherabständen) die Aliasing-Frequenz und die Bass Anhebung beeinflus- sen, welche bisher manuell auf dem jeweiligen Setup ange- passt werden muss.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegende Zeich- nung detailliert erläutert. Es zeigen:
Fig. Ia ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Aliasing-Filtern in einem Wellen- feldsynthesesystem, wobei die Komponentensignale gefiltert werden;
Fig. Ib ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Aliasing-Filtern in einem Wellen- feldsynthesesystem, wobei die Audiosignale, die einer virtuellen Quelle zugeordnet sind, gefiltert werden; Fig. 2 ein Prinzipschaltbild in einer Wellenfeldsynthe- seumgebung, wie sie für die vorliegende Erfindung einsetzbar ist;
Fig. 3a ein Blockschaltbild einer erfindungsgemäßen Einrichtung zum Ermitteln der Aliasing-Frequenz;
Fig. 3b eine Skizze zur Erläuterung des Ausbreitungsver- zögerungs- und Ausbreitungsskalierungswerts von den Lautsprechern zu dem Abhörpunkt;
Fig. 3c ein Beispiel von 10 Lautsprechern, wo die Skalie- rungs- und Verzögerungswerte der einzelnen Lautsprecher zu einem Zeitsignal am Abhörpunkt kombi- niert werden, aus welchem man nach der spektralen
Darstellung die Aliasing-Frequenz ermittelt;
Fig. 4 ein Blockschaltbild zur Ermittlung der Aliasing- Frequenzen, die verschiedenen virtuellen Quellen entsprechen;
Fig. 5 ein Blockschaltbild zur Mittelung der Aliasing- Filtereigenschaften für verschiedene Abhörpunkte;
Fig. 6 ein Blockschaltbild für ein adaptives Filter für mehrere virtuelle Quellen; und
Fig. 7 ein prinzipielles Blockschaltbild eines Wellen- feldsynthesesystems mit Wellenfeldsynthesemodul und Lautsprecherarray in einem Vorführbereich.
Bevor detailliert auf die vorliegende Erfindung eingegangen wird, wird nachfolgend anhand von Fig. 7 der prinzipielle Aufbau eines Wellenfeldsynthesesystems dargestellt. Das Wellenfeldsynthesesystem hat ein Lautsprecherarray 700, das bezüglich eines Vorführbereichs 702 platziert ist. Im einzelnen umfasst das in Fig. 7 gezeigte Lautsprecherarray, das ein 360°-Array ist, vier Arrayseiten 700a, 700b, 700c und 70Od. Ist der Vorführbereich 702 z. B. ein Kinosaal, so wird bezüglich der Konventionen vorne/hinten oder rechts/links davon ausgegangen, daß sich die Kinoleinwand auf derselben Seite des Vorführbereichs 702 befindet, an der auch das Teil-Array 700c angeordnet ist. In diesem Fall würde der Betrachter, der an dem hier so genannten Optimal- Punkt P in dem Vorführbereich 702 sitzt, nach vorne, also auf die Leinwand, sehen. Hinter dem Zuschauer würde sich dann das Teil-Array 700a befinden, während sich links vom Zuschauer das Teil-Array 70Od befinden würde, und während sich rechts vom Zuschauer das Teil-Array 700b befinden würde. Jedes Lautsprecherarray besteht aus einer Anzahl von verschiedenen Einzellautsprechern 708, die jeweils mit eigenen Lautsprechersignalen angesteuert werden, die von ei- nem Wellenfeldsynthesemodul 710 über einen in Fig. 7 lediglich schematisch gezeigten Datenbus 712 bereitgestellt werden. Das Wellenfeldsynthesemodul ist ausgebildet, um unter Verwendung der Informationen über z. B. Art und Lage der Lautsprecher bezüglich des Vorführbereichs 702, also von Lautsprecher-Informationen (LS-Infos) , und gegebenenfalls mit sonstigen Inputs Lautsprechersignale für die einzelnen Lautsprecher 708 zu berechnen, die jeweils von den Audiotracks für virtuelle Quellen, denen ferner Positionsinformationen zugeordnet sind, gemäß den bekannten Wellenfeld- Synthesealgorithmen abgeleitet werden. Das Wellenfeldsynthesemodul kann ferner noch weitere Eingaben erhalten, wie beispielsweise Informationen über die Raumakustik des Vorführbereichs etc.
Die nachfolgenden Ausführungen zur vorliegenden Erfindung können prinzipiell für jeden Punkt P in dem Vorführbereich durchgeführt werden. Der Optimal-Punkt kann somit an jeder beliebigen Stelle im Vorführbereich 702 liegen. Es kann auch mehrere Optimal-Punkte, z. B. auf einer Optimal-Linie, geben. Um jedoch möglichst gute Verhältnisse für möglichst viele Punkte im Vorführbereich 702 zu erhalten, wird es bevorzugt, den Optimal-Punkt bzw. die Optimal-Linie in der Mitte bzw. am Schwerpunkt des Wellenfeldsynthesesystems, das durch die Lautsprecher-Teilarrays 700a, 700b, 700c, 70Od definiert ist, anzunehmen.
Fig. Ia zeigt ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Aliasing-Korrigieren in einem Wellenfeld- synthesesystem, das Bezug nehmend auf Fig. 7 dargelegt worden ist. Zentrum einer Wellenfeldsyntheseumgebung ist ein Wellenfeldsynthesemodul 100, welches einen Eingang für die Audiosignale 102 der virtuellen Quellen besitzt, einen Ein- gang für die Positionsdaten 104 der virtuellen Quellen, einen Eingang für die Positionsdaten der Lautsprecher 106 und gegebenenfalls sonstige Eingänge 108, die z. B. Informationen über die Raumakustik liefern, besitzt. In einem Ausgang liefert das Wellenfeldsynthesemodul 100 die Komponentensig- nale 110 als auch die entsprechenden Verzögerungs- und Skalierungswerte für die einzelnen Lautsprecher. Diese Daten dienen als Eingangsdaten der Einrichtung 120 zur Ermittlung einer Quellen spezifischen Aliasing-Filtereigenschaft (AFE) 130, die darüber hinaus gegebenenfalls noch die Information zur Position des Abhörpunktes 125 erhält. Die Aliasing- Filtereigenschaft 130 als auch die Komponentensignale 110 dienen als Eingangssignale für das adaptive Anti-Aliasing- Filter 140 für die virtuellen Quellen. Nach dem Filtern der Komponentensignale 110 werden in einer Einrichtung zum Kom- binieren der Komponentensignale 150 die entsprechenden Lautsprechersignale 160 erstellt.
In Fig. Ib ist eine erfindungsgemäße Vorrichtung gezeigt, bei der nicht die Komponentensignale 110 durch das adaptive Anti-Aliasing-Filter 140 gefiltert werden, sondern die Audiosignale 102 in dem adaptiven Anti-Aliasing-Filter 140 für virtuellen Quellen gefiltert werden. Das gefilterte Audiosignal 165 wird in das Wellenfeldsynthesemodul 100 eingegeben, um gefilterte Komponentensignale zu erzeugen und in der Einrichtung 150 zum Kombinieren der Komponentensignale die entsprechenden Lautsprechersignale 160 zu erzeugen. Wie es aus Fig. 2 ersichtlich ist, erhält das Wellenfeld- synthesemodul 100 von jeder virtuellen Quelle ein Audiosignal und eine Positionsinformation. Beispielhaft ist in dieser Figur gezeigt: das Audiosignal der ersten Quelle 212 und die Position der ersten Quelle 214, das Audiosignal der zweiten Quelle 222 und die Positionsinformation der zweiten Quelle 224 als auch das Audiosignal der letzten Quelle 232 und die Positionsinformation der letzten Quelle 234. Unter Verwendung der Daten zur Position der Lautsprecher 106 als auch sonstiger Eingaben wie z. B. der Raumakustik 108 bestimmt das Wellenfeldsynthesemodul 100 daraus für jede virtuelle Quelle die Komponentensignale die für jeden Lautsprecher. Beispielhaft gezeigt sind die Komponentensignale der ersten virtuellen Quelle KSIl bis KSn 240, der zweiten virtuellen Quelle KS21 bis KS2n 250 als auch die Komponentensignale der letzten virtuellen Quelle KSmI bis KSmn 260.
Fig. 3a zeigt ein Blockschaltbild einer erfindungsgemäß bevorzugten Vorrichtung zur Bestimmung der Aliasing-Frequenz. Das Wellenfeldsynthesemodul 100 erzeugt für eine virtuelle Quelle ein Wellenfeldsyntheseskalierungswert (WFS-SW) und ein Wellenfeldsyntheseverzögerungswert (WFS-VW) 310. Aus der Position des Abhörpunktes 320 und der Information über die Position der Lautsprecher 330 wird in der Einrichtung 340 ein Ausbreitungsverzögerungswert (AVZW) als auch ein Ausbreitungsskalierungswert (ASKW) ermittelt. Diese Werte dienen zusammen mit dem WFS-SW und dem WFS-VW 310 als Eingang in die Einrichtung 350, die ein Gesamtskalierungswert (GSW) als auch einen Gesamtverzögerungswert (GVW) ermit- telt. Daraus wird in der Einrichtung 360 ein Zeitsignal und entsprechende Zeitwerte ermittelt, die in der Einrichtung 370 in eine spektrale Darstellung umgesetzt wird. Schließlich wird in der Einrichtung 380 diese spektrale Darstellung ausgewertet und eine entsprechende Aliasing-Frequenz 390 bestimmt.
In Fig. 3b sind verschiedene Lautsprecher 708 gezeigt, die alle mit einem eigenen Lautsprechersignal gespeist werden, das von dem Wellenfeldsynthesemodul 100 erzeugt worden ist. So kann jeder Lautsprecher als Punktwelle modelliert werden, die ein konzentrisches Wellenfeld ausgibt. Der Gesetzmäßigkeit des konzentrischen Wellenfelds folgend fällt der Pegel des Schallfeldes mit dem Abstand r zu den Lautsprechern ab und zwar um den Faktor l/r2. Für das Signal ergibt sich somit eine Abhängigkeit von l/r. Unter Berücksichtigung des Ausbreitungsgeschwindigkeit der Schallwelle kann damit bestimmt werden, wann (Ausbreitungsverzögerungswert) bezogen auf den Lautsprecher welches Signal in welcher Skalierung (Ausbreitungsskalierungswert) am Abhörpunkt P eintrifft.
Fig. 3c zeigt ein konkretes Beispiel eines Vorführbereiches 702 mit 10 Lautsprechern, von denen die Lautsprecher 4 bis 7 ein Signal einer virtuellen Quelle mit einem bestimmten Skalierungswert und einem bestimmten Verzögerungswert 392 aussenden. Nach Berücksichtigung der zeitlichen Verzögerung und der Dämpfung infolge der Ausbreitung von den Laut- Sprechern zu dem Abhörpunkt P erhält man daraus für jeden Lautsprecher eine Gesamtverzögerungs- und ein Gesamtskalie- rungswert am Abhörpunkt 394. Werden diese Gesamtskalie- rungswerte gemäß den Gesamtverzögerungswerte als Zeitkoordinate aufgetragen, ergibt sich das Zeitsignal links unten in Fig. 3c, das als IR (Impulsantwort) am Abhörpunkt bezeichnet ist. Dabei entspricht das erste Signal mit der kleinsten Zeitwert dem von Lautsprecher 6 ausgesandten Signal, welches gemäß Tabelle 392 eine Skalierungswert von 0,8 und einen Verzögerungswert von 10ms aufweist. Das zweite Signal in 394 ist das Signal von Lautsprecher 5, welches gemäß Tabelle 392 einen Skalierungswert von 0,7 und eine Verzögerungswert von 12ms aufweist. Analog folgen dann die Signale vom Lautsprecher 4 und vom Lautsprecher 7, deren Skalierungs- und Verzögerungswerte ebenfalls in Tabelle 392 angegeben sind. Dieses Zeitsignal wird in einer spektralen Darstellung 396 umgewandelt, die durch zwei Bereiche gekennzeichnet ist. Zu hohen Frequenzen zeigt die spektral Darstellung ein fluktuierendes Verhalten, und zu niederen Frequenzen ein ansteigendes Verhalten. In dem Übergangsbereich zwischen den Bereichen liegt die Aliasing-Frequenz. Diese Aliasing-Frequenz dient dann als Eingangssignal für ein entsprechendes Korrekturfilter 398. Dieses Filter dient dazu, eine Absenkung der Tieftonanteile um beispielsweise 3dB pro Oktave zu bewirken.
Fig. 4 zeigt ein Blockschaltbild, in dem die Ermittlung der Aliasing-Frequenzen für verschiedene virtuelle Quellen ge- zeigt ist. Das Wellenfeldsynthesemodul 100 liefert für jede virtuelle Quelle und für jeden Lautsprecher Skalierungsund Verzögerungswerte. In dem hier gezeigten Beispiel sind sowohl die Skalierungs- und Verzögerungswerte der ersten virtuellen Quelle 402 als auch die Skalierungs- und Verzö- gerungswerte der letzten virtuellen Quelle 404 gezeigt. Durch Kombinieren dieser Werte mit den Ausbreitungsverzöge- rungswerte und den Ausbreitungsskalierungswerte wird somit für jede virtuelle Quelle ein Satz von Daten erhalten, der wiederum als Eingangssignale für die Einrichtung 350 zum Ermitteln der Gesamtskalierungswerte und der Gesamtverzöge- rungswerte dient. Daraus werden in der Einrichtung 360 für jede virtuelle Quelle separat entsprechende Zeitsignale und Zeitwerte ermittelt, die wiederum in der Einrichtung 370 in eine spektrale Darstellung umgewandelt werden. Diese spekt- ralen Darstellungen werden in der Einrichtung 380 ausgewertet werden, so dass man Aliasing-Frequenzen 410 für jede virtuelle Quelle bekommt.
Fig. 5 zeigt ein Blockschaltbild, bei dem Aliasing- Frequenzen für jeden Abhörpunkt ermittelt werden und anschließend über eine Mittelung eine gemittelte Aliasing- Frequenz bestimmt wird. Dazu dienen die Skalierungswerte und Verzögerungswerte 310 für eine virtuelle Quelle als Eingangssignale für eine Einrichtung 510 zur Ermittelung einer Quellen-spezifischen Aliasing-Filtereigenschaft für einen ersten Abhörpunkt, als auch als Eingangssignale für eine Einrichtung zur Ermittelung einer Quellen-spezifischen Aliasing-Filtereigenschaft für einen zweiten Abhörpunkt 520. Für jeden weiteren Abhörpunkt werden ebenfalls die Skalierungs- und Verzögerungswerte in eine entsprechende Einrichtung zur Ermittelung einer Quellen-spezifischen AIi- asing-Filtereigenschaft ermittelt. Die so erhaltenen FiI- tereigenschaften für jeden Abhörpunkt werden in der Einrichtung 530 über alle Abhörpunkte gemittelt. Damit erhält man für den gesamten Abhörbereich 702 eine Aliasing- Filtereigenschaft für jede virtuelle Quelle. Diese gemit- telte Aliasing-Filtereigenschaft kann z. B. eine gemittelte Aliasing-Filterfrequenz sein.
Fig. 6 zeigt ein Blockschaltbild eines adaptiven Filters für virtuelle Quellen. Die Eingangssignale dieses adaptiven Filters 140 für virtuelle Quellen sind sowohl die Aliasing- Frequenzen fi bis fn als auch die Komponentensignale 110, die mit KSIl bis KSIn für die erste virtuelle Quelle, mit KS21 bis KS2n für die zweite virtuelle Quelle und mit KSmI bis KSmn für die letzte virtuelle Quelle bezeichnet sind. Die Ausgangssignale des adaptiven Filters 140 sind modifi- zierte Komponentensignale 610, die wiederum als Eingang für die Einrichtung 150 zum Kombinieren der Komponentensignale dienen, um schließlich die Lautsprechersignale 160 zu liefern.
Die in diesem Algorithmus bestimmte Aliasing-Frequenz ist die sich dynamisch ändernde Frequenz unterhalb der bei WFS- Wiedergabe eine Bassanhebung von beispielsweise 3dB pro Oktave entsteht. Oberhalb dieser Frequenz führen Aliasing- Artefakte zu Frequenzauslöschungen und Kammfiltereffekten. Wie bereits dargelegt wird durch Analyse dieser Frequenz ein dynamisches Filter berechnet, welches die Bassanhebung Quellenabhängig kompensiert. Abhängig vom verwendeten Lautsprecher-Setup entspricht diese Anhebung nicht immer dem theoretischen Wert von 3dB pro Oktave. Dieses dynamische Korrekturfilter wird bei Quellenbewegungen ständig aktualisiert. Das Resultat ist die optimale Basskorrektur für die jeweilige Quellposition. In der technischen Realisierung werden dazu die Quellposi- tionsabhängigen Skalierungs- und Verzögerungswerte des Signals ständig bestimmt. Aus Kenntnis der aktuellen Aliasing- Frequenz wird ein Korrekturfilter berechnet und ständig ak- tualisiert (quellenpositionsabhängig) . Die Lautsprechersignale für diese Quelle werden von diesem Korrekturfilter berechnet. Erfindungsgemäß wird somit ein optimaler Klang für unterschiedliche Lautsprechersetups unter Einbeziehung der quellpositionsabhängigen Aliasing-Frequenz in die Berech- nung der Lautsprechersignale erreicht. Außerdem ergeben sich damit Korrekturmöglichkeiten des Lautsprecherfrequenzganges durch Einbeziehung der Lautsprecherparameter in die Berechnung. Es ist auch die Einbindung als Plugin in konventionelle Simulationstools möglich (z. B. in EASE) . Eben- so können reale Schallfeldberechnungen unter Einbeziehung der gesamten Übertragungskette (Quellposition, WFS- Algorithmus, LautSprecherparameter, Raumparameter, Abhörposition) erfolgen.
Um eine Klangverbesserung in WFS-Systemen zu erreichen wird somit bei einem bevorzugten Ausführungsbeispiel unter Kenntnis der Position einer virtuellen Schallquelle, sowie der Lautsprecher und Raumparameter eine komplexe Impulsantwort berechnet. Mit dieser Impulsantwort sind Simulationen und Auralisationen von WFS Schallfeldern möglich, Das System liefert weiterhin Informationen zur dynamischen Ansteuerung des Kompensationsfilters (3dB Filter) für die WFS. Ein optimierter Filter verbessert die Klangqualität eines WFS-Systems.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Schema auch in Software implementiert sein kann. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder einer CD mit elektronisch aus- lesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das entsprechende Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computerprogrammprodukt mit auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computerprogrammprodukt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computerprogramm auf einem Computer abläuft.

Claims

Patentansprüche
1. Vorrichtung zum Aliasing-Korrigieren in einem Wellen- feldsynthesesystem mit einem Wellenfeldsynthesemodul (100) und einem Array von Lautsprechern (708) zur Schallversorgung eines Vorführbereichs (702), wobei das Wellenfeldsynthesemodul (100) ausgebildet ist, um ein einer virtuellen Schallquelle zugeordnetes Audiosignal (102) sowie der virtuellen Schallquelle zuge- ordnete Quellpositionsinformation (104) zu empfangen und unter Berücksichtigung von Lautsprecherpositionsinformationen (106) Komponentensignale (110) für die Lautsprecher aufgrund der virtuellen Quelle zu berechnen, mit folgenden Merkmalen:
einer Einrichtung zum Ermitteln (120) einer für eine Quelle spezifischen Aliasing-Filtereigenschaft (130) unter Verwendung der Quellpositionsinformationen (104); und
einem adaptiven Anti-Aliasing-Filter (140) zum adaptiven Filtern des der Quelle zugeordneten Audiosignals (102) oder der der Quelle zugeordneten Komponentensignale (110), wobei das adaptive Anti-Aliasing- Filter (140) gemäß der für die Quelle spezifischen Aliasing-Filtereigenschaft (130) eingestellt ist, um ein Aliasing-Korrigieren zu bewirken.
2. Vorrichtung gemäß Anspruch 1, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um die Aliasing- Filtereigenschaft (130) unter Verwendung einer Impulsantwort für einen Kanal zwischen der virtuellen Quelle und einem Abhörpunkt (P) in dem Wiedergaberaum (702) zu berechnen.
3. Vorrichtung gemäß Anspruch 1 oder 2, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um für Lautsprecher (708) in dem Array, den Lautsprechern zugeordneten Wellenfeldsynthese-Skalierungswerte und Wellenfeldsynthese-Verzögerungswerte (310) zu erhalten, und um basierend auf einem Abhörpunkt (P) in dem Wiedergaberaum (702) und den Wellenfeldsynthese- Skalierungswerten und Wellenfeldsynthese- Verzögerungswerten (310) die Aliasing- Filtereigenschaft (130) zu ermitteln.
4. Vorrichtung gemäß einem der Ansprüche 1 bis 3, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um Ausbreitungsverzögerungswerte und Ausbrei- tungsskalierungswerte (340) zwischen den Lautsprechern (708) und dem Abhörpunkt (P) zu ermitteln, um für jeden Lautsprecher den Wellenfeldsynthese- Verzögerungswert und den Ausbreitungsverzögerungswert zu kombinieren, um einen Gesamtverzögerungswert zu erhalten, um für jeden Lautsprecher den Wellenfeld- synthese-Skalierungswert und den Ausbreitungsskalie- rungswert zu kombinieren, um einen Gesamtskalierungs- wert zu erhalten, und um eine Impulsantwort zu der virtuellen Quelle und dem Abhörpunkt (P) unter Verwendung der Gesamtskalierungswerte und der Gesamtver- zögerungswerte für die Lautsprecher (708) zu ermitteln.
5. Vorrichtung gemäß Anspruch 4, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um ein Zeitsignal mit Zeitwerten, dessen Zeitkoordinaten durch die Gesamtverzögerungswerte definiert sind, und deren Amplituden durch die Gesamtskalierungswerte definiert sind, in eine spektrale Darstellung umzusetzen, und um als Aliasing-Filtereigenschaft (130) eine Alia- sing-Filterfrequenz (390) aus der spektralen Darstellung zu ermitteln.
6. Vorrichtung gemäß Anspruch 2, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um als Aliasing- Filtereigenschaft (130) eine Aliasing-Filterfrequenz (390) aus einer spektralen Darstellung der Impulsantwort zu ermitteln.
7. Vorrichtung gemäß einem der Ansprüche 5 oder 6, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um als Aliasing-Filterfrequenz (390) eine Frequenz zu ermitteln, die in einem Bereich liegt, der zu niedrigen Frequenzen durch eine Zunahme der spektralen Darstellung begrenzt wird, und der zu höheren Frequenzen durch eine Fluktuation der spektralen Darstellung begrenzt wird.
8. Vorrichtung gemäß Anspruch 7, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um als Aliasing- Filtereigenschaft (130) eine Frequenz zu wählen, die um weniger als ± 25 % von einem Frequenzwert abweicht, der einen Übergangswert zwischen einer Zunahme der spektralen Darstellung und einer Fluktuation der spektralen Darstellung entspricht.
9. Vorrichtung gemäß Anspruch 5 oder 6, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um für eine virtuelle Quelle Aliasing-Filtereigenschaften (130) für verschiedene Abhörpunkte im Wiedergaberaum (702) zu ermitteln und um die verschiedenen Aliasing- Filtereigenschaften zu mittein, um die für die Quelle spezifische Aliasing-Filtereigenschaft zu erhalten.
10. Vorrichtung gemäß einem der Ansprüche 1 bis 8, bei der die Einrichtung zum Ermitteln (120) ausgebildet ist, um für virtuelle Quellen an unterschiedlichen virtuellen Positionen unterschiedliche Aliasing- Filtereigenschaften zu berechnen, und bei der das a- daptive Anti-Aliasing-Filter (140) ausgebildet ist, um die den virtuellen Quellen zugeordneten Audiosignale (102) oder die den virtuellen Quellen zugeordneten Komponentensignale (110) unter Verwendung der un- terschiedlichen Aliasing-Filtereigenschaften zu filtern.
11. Vorrichtung gemäß Anspruch 10, bei der das adaptive Anti-Aliasing-Filter (140) ausgebildet ist, um die
Audiosignale (102) , die den virtuellen Quellen zugeordnet sind, separat unter Verwendung der verschiedenen Aliasing-Filtereigenschaften zu filtern, um Alia- sing-gefilterte Audiosignale zu erhalten, und wobei das Wellenfeldsynthesemodul (100) ausgebildet ist, um die Komponentensignale (110) für jede virtuelle Quelle unter Verwendung der gefilterten Audiosignale zu berechnen, und zu einem Lautsprecher gehörende Komponentensignale zu kombinieren, um ein Lautsprechersig- nal (160) für den Lautsprecher zu erhalten.
12. Vorrichtung gemäß Anspruch 10, bei der das adaptive Anti-Aliasing-Filter (140) ausgebildet ist, um für eine erste virtuelle Quelle berechnete Komponenten- Signale (110) unter Verwendung der für die erste virtuelle Quelle spezifischen Anti-Aliasing- Filtereigenschaft (130) zu filtern, um erste Alia- sing-gefilterte Komponentensignale für die erste virtuelle Quelle zu erhalten, und um für eine zweite virtuelle Quelle zweite Aliasing-gefilterte Komponentensignale für die zweite virtuelle Quelle zu erhalten, wobei das Wellenfeldsynthesemodul (100) ferner ausgebildet ist, um zu einen Lautsprecher gehörende Komponentensignale (110) der ersten Aliasing- gefilterten Komponentensignale und der zweiten Aliasing-gefilterten Komponentensignale zu kombinieren, um ein Lautsprechersignal (160) für den Lautsprecher zu erhalten.
13. Verfahren zum Aliasing-Filterkorrigieren in einem Wellenfeldsynthesesystem mit einem Wellenfeldsynthesemodul (100) und einem Array von Lautsprechern (708) zur Schallversorgung eines Vorführbereichs (702), wo- bei das Wellenfeldsynthesemodul (100) ausgebildet ist, um eine virtuelle Schallquelle zugeordnetes Audiosignal (102) sowie der virtuellen Schallquelle zugeordneten Quellpositionsinformationen (104) zu emp- fangen und unter Berücksichtigung von Lautsprecherpositionsinformationen (106) Komponentensignale (110) für die Lautsprecher aufgrund der virtuellen Quelle zu berechnen, mit folgenden Schritten:
Ermitteln für einer eine Quelle spezifischen Alia- sing-Filtereigenschaften (130) unter Verwendung der Quellpositionsinformationen (104); und
Adaptives Filtern des der Quelle zugeordneten Audio- signale (102) oder der der Quelle zugeordneten Komponentensignale (110), wobei das adaptive Filtern gemäß der für die Quelle spezifischen Aliasing- Filtereigenschaft (130) durchgeführt wird, um ein A- liasing-Korrigieren zu bewirken.
14. Computerprogramm mit einem Programmcode zur Durchführung des Verfahrens nach einem der Anspruchs 13, wenn das Computerprogramm auf einem Computer abläuft.
EP07700228A 2006-03-06 2007-01-17 Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften Ceased EP1972181B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102006010212A DE102006010212A1 (de) 2006-03-06 2006-03-06 Vorrichtung und Verfahren zur Simulation von WFS-Systemen und Kompensation von klangbeeinflussenden WFS-Eigenschaften
PCT/EP2007/000385 WO2007101498A1 (de) 2006-03-06 2007-01-17 Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften

Publications (2)

Publication Number Publication Date
EP1972181A1 true EP1972181A1 (de) 2008-09-24
EP1972181B1 EP1972181B1 (de) 2010-12-22

Family

ID=37898264

Family Applications (1)

Application Number Title Priority Date Filing Date
EP07700228A Ceased EP1972181B1 (de) 2006-03-06 2007-01-17 Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften

Country Status (6)

Country Link
US (1) US8363847B2 (de)
EP (1) EP1972181B1 (de)
JP (1) JP4977720B2 (de)
CN (1) CN101406075B (de)
DE (2) DE102006010212A1 (de)
WO (1) WO2007101498A1 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
DE102005033238A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Mehrzahl von Lautsprechern mittels eines DSP
DE102006053919A1 (de) * 2006-10-11 2008-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
KR101268779B1 (ko) * 2009-12-09 2013-05-29 한국전자통신연구원 라우드 스피커 어레이를 사용한 음장 재생 장치 및 방법
JP2013051643A (ja) * 2011-08-31 2013-03-14 Nippon Hoso Kyokai <Nhk> スピーカアレイ駆動装置およびスピーカアレイ駆動方法
WO2013068402A1 (en) 2011-11-10 2013-05-16 Sonicemotion Ag Method for practical implementations of sound field reproduction based on surface integrals in three dimensions
DE102012200512B4 (de) 2012-01-13 2013-11-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen von Lautsprechersignalen für eine Mehrzahl von Lautsprechern unter Verwendung einer Verzögerung im Frequenzbereich
US20150131824A1 (en) * 2012-04-02 2015-05-14 Sonicemotion Ag Method for high quality efficient 3d sound reproduction
EP2870782B1 (de) * 2012-07-06 2020-04-08 Dirac Research AB Entwurf für eine audiovorkompensationssteuerung mit paarweiser lautsprecher symmetrie
CN103118323A (zh) * 2012-12-28 2013-05-22 中国科学院声学研究所 基于平面波分解的wfs系统主动房间补偿方法和系统
KR101831286B1 (ko) * 2013-08-23 2018-02-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 엘리어싱 오류 신호를 사용하여 오디오 신호를 처리하기 위한 장치 및 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2985675B2 (ja) 1994-09-01 1999-12-06 日本電気株式会社 帯域分割適応フィルタによる未知システム同定の方法及び装置
EP1209949A1 (de) * 2000-11-22 2002-05-29 Technische Universiteit Delft Schallwiedergabesystem mit Wellenfeldsynthese unter Verwendung einer Platte mit verteilten Moden
JP4826693B2 (ja) * 2001-09-13 2011-11-30 オンキヨー株式会社 音響再生装置
JP3940662B2 (ja) * 2001-11-22 2007-07-04 株式会社東芝 音響信号処理方法及び音響信号処理装置及び音声認識装置
US20030147539A1 (en) * 2002-01-11 2003-08-07 Mh Acoustics, Llc, A Delaware Corporation Audio system based on at least second-order eigenbeams
DE10254470B4 (de) * 2002-11-21 2006-01-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
US7336793B2 (en) * 2003-05-08 2008-02-26 Harman International Industries, Incorporated Loudspeaker system for virtual sound synthesis
DE10321986B4 (de) * 2003-05-15 2005-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem
DE10321980B4 (de) * 2003-05-15 2005-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
DE10351793B4 (de) 2003-11-06 2006-01-12 Herbert Buchner Adaptive Filtervorrichtung und Verfahren zum Verarbeiten eines akustischen Eingangssignals
JP2006005868A (ja) 2004-06-21 2006-01-05 Denso Corp 車両用報知音出力装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2007101498A1 *

Also Published As

Publication number Publication date
CN101406075A (zh) 2009-04-08
US20090220111A1 (en) 2009-09-03
WO2007101498A1 (de) 2007-09-13
JP2009529262A (ja) 2009-08-13
CN101406075B (zh) 2010-12-01
DE502007006021D1 (de) 2011-02-03
US8363847B2 (en) 2013-01-29
JP4977720B2 (ja) 2012-07-18
EP1972181B1 (de) 2010-12-22
DE102006010212A1 (de) 2007-09-20

Similar Documents

Publication Publication Date Title
EP1972181B1 (de) Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
EP1637012B1 (de) Wellenfeldsynthesevorrichtung und verfahren zum treiben eines arrays von lautsprechern
EP1671516B1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
EP1525776B1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
EP1844628B1 (de) Vorrichtung und verfahren zum ansteuern einer wellenfeldsynthese-renderer-einrichtung mit audioobjekten
EP1977626B1 (de) Verfahren zur aufnahme einer tonquelle mit zeitlich variabler richtcharakteristik und zur wiedergabe
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
EP1782658B1 (de) Vorrichtung und verfahren zum ansteuern einer mehrzahl von lautsprechern mittels eines dsp
EP1851998B1 (de) Vorrichtung und Verfahren zum Liefern von Daten in einem Multi-Renderer-System
EP1606975B1 (de) Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal
EP1723825B1 (de) Vorrichtung und verfahren zum steuern einer wellenfeldsynthese-rendering-einrichtung
EP2754151B2 (de) Vorrichtung, verfahren und elektroakustisches system zur nachhallzeitverlängerung
DE10254470A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
EP2503799B1 (de) Verfahren und System zur Berechnung synthetischer Außenohrübertragungsfunktionen durch virtuelle lokale Schallfeldsynthese

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20080805

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): DE FR GB

RIN1 Information on inventor provided before grant (corrected)

Inventor name: DEGUARA, JOACHIM

Inventor name: RODIGAST, RENE

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

17Q First examination report despatched

Effective date: 20090826

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

DAX Request for extension of the european patent (deleted)
GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE FR GB

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REF Corresponds to:

Ref document number: 502007006021

Country of ref document: DE

Date of ref document: 20110203

Kind code of ref document: P

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502007006021

Country of ref document: DE

Effective date: 20110203

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20110923

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502007006021

Country of ref document: DE

Effective date: 20110923

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 10

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20210120

Year of fee payment: 15

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20210120

Year of fee payment: 15

Ref country code: GB

Payment date: 20210122

Year of fee payment: 15

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502007006021

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20220117

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220117

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220802

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220131