EP1880577B1 - Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle - Google Patents

Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle Download PDF

Info

Publication number
EP1880577B1
EP1880577B1 EP06754040A EP06754040A EP1880577B1 EP 1880577 B1 EP1880577 B1 EP 1880577B1 EP 06754040 A EP06754040 A EP 06754040A EP 06754040 A EP06754040 A EP 06754040A EP 1880577 B1 EP1880577 B1 EP 1880577B1
Authority
EP
European Patent Office
Prior art keywords
occurrence
speaker
pulse response
audio
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
EP06754040A
Other languages
English (en)
French (fr)
Other versions
EP1880577A1 (de
Inventor
Michael Beckinger
René RODIGAST
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP1880577A1 publication Critical patent/EP1880577A1/de
Application granted granted Critical
Publication of EP1880577B1 publication Critical patent/EP1880577B1/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Definitions

  • the present invention relates to audio signal processing, and more particularly to audio signal processing in systems having a plurality of loud speakers, such as wave field synthesis systems.
  • Fig. 4 shows a typical wave field synthesis scenario.
  • the heart of the wave field synthesis system is the wave field synthesis renderer 400, which generates its own loudspeaker signal for each of the individual loudspeakers 401, which group around a reproduction environment. More specifically, between the wave field synthesis renderer 400 and each speaker, there is thus a speaker channel on which the speaker signal for that speaker is transmitted from the wave field synthesis renderer 400.
  • the wave field synthesis renderer 400 is supplied with control data, which is typically arranged in a control file 402.
  • the control file may comprise a list of audio objects, each audio object having a virtual position and an audio signal associated therewith.
  • the virtual position is the location that a listener in the playback environment will locate.
  • a film screen is arranged, it is not only an optical spatial scenario but also a tonal spatial scenario generated for the viewer.
  • all speaker channels are supplied with loudspeaker signals that are from the same audio signal for a source, such as an actor or z. As an approaching train derived. All these speaker signals differ but more or less by their scaling and their delay of the input signal.
  • the scaling and delay for each loudspeaker signal is generated by the Wave Field Synthesis algorithm, which operates on the Hugyen principle. As is known, the principle is based on being able to generate any arbitrary waveform through a large number of spherical waves.
  • the wave-field synthesis renderer will perform the procedure described above for each individual audio object and then accumulate the individual before the loudspeaker signals are transmitted to the individual loudspeakers via the loudspeaker channels Perform component signals. For example, when viewing the speaker 403 located at a particular speaker position that is known, the wave field synthesis renderer will generate for each audio object a component signal to be played by the speaker 403. Then, when all the component signals are calculated for a timing for the speaker 403, the individual component signals are simply added up to obtain the combined component signal for the speaker channel going from the wave field synthesis renderer 400 to the speaker 403. If, on the other hand, only one source is active for the loudspeaker 403 at a time, the summation can of course be omitted.
  • the wave-field synthesis renderer 400 has practical limitations. So he is considering the fact that the whole wave field synthesis concept anyway is relatively compute-time-intensive, can process only a certain number of individual sources at the same time.
  • a typical maximum number of sources to be processed simultaneously is 32 sources. This number of 32 sources is sufficient for typical scenes, such as dialogues. However, this number is much too small when certain events occur, such as a rainy sound, which is composed of a very large number of individual different sound events.
  • a single sound event is the sound that a raindrop produces when it falls on a particular surface.
  • a drop markup is simulated by determining the sector of the markup. Thereupon, the sound pressure of the impact is distributed between the two adjacent loudspeakers and, based thereon, a sound signal is generated for these two loudspeakers.
  • a disadvantage of this concept is that even there particle positions can not be generated, but only directions with respect to a listener by a stereo panning between two of the impact position of the droplet adjacent speakers can be used. Again, no optimal rain sound is generated for the listener.
  • the object of the present invention is to provide a concept for generating a loudspeaker signal which enables a higher quality reproduction of an audio source to be presented at different positions at different times in an audio scene.
  • the present invention is based on the finding that both the position and the time at which an audio source should occur in an audio scene can be generated synthetically.
  • a single impulse response is generated for each position.
  • the single-pulse response represents the image of the audio source, which is located at a certain position, to a loudspeaker or a loudspeaker signal.
  • the individual generated individual impulse response information is combined in the correct time, that is, depending on the time of occurrence associated with the onset positions, to obtain combination impulse response information for a loudspeaker channel.
  • the audio signal describing the audio source is then filtered using the combination impulse response information to finally obtain the speaker signal for the speaker channel, this speaker signal representing the audio source.
  • the loudspeaker channel loudspeaker signal represents the total signal that exists due to the audio signal that has occurred multiple times at certain times the individual events of the occurrence of the raindrop in the reproduction room are uniquely located by determined virtual positions.
  • the invention is thus achieved that, especially for large spaces an enveloping effect by means of random particles, ie z. B. briefly occurring sound sources such as raindrops, is achieved.
  • z. B. only 32 channels can render at the same time, any frequency of the individual sound objects, such as raindrops can be generated according to the invention.
  • spatially distributed particles can be reproduced in a high repetition rate and in real time for large spaces.
  • sound sources can occur simultaneously at different points in the room and simulated simultaneously.
  • a high number of input channels is required according to the invention, since the signals are generated due to the individual sources within the wave field synthesis renderer.
  • a single audio object comprising the raindrop audio signal will suffice.
  • the number of more or less simultaneously occurring raindrops arranged at different virtual positions is expressed only by the fact that How much individual impulse responses are generated and combined.
  • the inventive concept leads to a considerable reduction of the computation time in comparison to the case in which for each audio object a separate virtual source exists at its own virtual position.
  • B. is provided via a control file a wave field synthesis renderer. Due to the summary of the individual impulse responses according to the invention, an arbitrarily high number of raindrops at different positions does not lead to a correspondingly large number of convolutions, but only results in a single convolution of a (large) impulse response with the audio signal representing the audio source (the raindrop) , This too is one reason why the concept according to the invention can be carried out very computationally efficiently.
  • any primary sound source is reproduced as often as desired virtually via wave field synthesis over an arbitrarily large listening surface.
  • the required computing power is much lower than with current wave field synthesis algorithms.
  • a generation of parameters such as mean particle density per time, two-dimensional position in space, three-dimensional position in space, individual filtering of each particle by means of impulse response is performed by means of a random number generator.
  • the concept according to the invention can also be used favorably for X.Y multichannel surround format.
  • the impulse response z. B. to change the sound of the particle, such as raindrops, or to simulate a physical property, such as the rain drops falling on a wood or on a sheet, which of course has different sounds result.
  • FIG. 3 shows an overview diagram of a loudspeaker signal generating device according to the invention at an output 10 for a loudspeaker channel assigned to a loudspeaker (such as 403) which is located in a loudspeaker channel Playback environment is attachable to a speaker position of a plurality of speaker positions.
  • a preferred embodiment of the device according to the invention has a device 12 for providing an audio signal for an audio source to occur at different positions and at different times in an audio scene.
  • the means for providing the audio signal is typically a storage medium on which an audio signal, e.g. As an incident raindrop or a sound of another particle, such as an approaching or departing spaceship z.
  • this audio signal for the audio source is once preferably within the wave field synthesis renderer, such as a renderer 400 of FIG Fig. 4 , permanently stored and therefore does not need to be fed through the control file.
  • the audio signal can also be fed to the renderer via the control file.
  • the means 12 for providing the audio signal would be a control file together with associated readout / transmission means.
  • the device according to the invention further comprises a position generator for providing a plurality of positions at which the audio source is to occur.
  • the position generator 14 is configured to, when Fig. 4 is considered to generate virtual positions that may be inside or outside the replay environment. If it is assumed that at the top of the playback environment in Fig. 4 z. For example, if there is a screen on which a movie is projected, the virtual positions may of course also be behind the screen or in front of the screen.
  • the position generator 14 may be configured to have any (x, y) positions within or outside the playback environment. Alternatively or additionally, depending on the design of the loudspeaker array, a z-position component can also be generated, that is to say whether the listener is to locate a source above him or possibly even below him. Further, depending on the implementation of a single impulse response generator 16 described below, the position generator is configured to provide any position in the rendering environment or outside the rendering environment, or only positions in a particular grid. The generation of positions only within a certain raster is advantageous when a look-up table is used in the individual impulse response generator 16 which will be described below in order to generate at least a part or the complete single-impulse response.
  • a position rounding to the raster can take place either at the output of the position generator 14 or at the input of the individual impulse response generator 16.
  • arbitrary finely resolved positions can be processed by the single impulse response generator to calculate the single impulse responses without further position rounding / quantization.
  • the position generator 14 obtains area information or volume information for the three-dimensional case, indicating in which area positions are to be generated. In other words, the surface information defines an area perpendicular to the canvas, within which rain should fall.
  • the position generator would be able to generate positions throughout the replay environment as it rains throughout the replay environment.
  • the requirement is such that z. B.
  • the device further comprises a time generator 18 for providing times of occurrence at which the audio source should occur, wherein a time assigned to a position generated by the position generator 14.
  • a time generator 18 for providing times of occurrence at which the audio source should occur, wherein a time assigned to a position generated by the position generator 14.
  • the timing generator 18 is controlled by a density parameter which, like the area information for the position generator 14, is supplied by a parameter controller 19.
  • the time generator 18 thus receives as parameter the time density, ie the number of occurrence events of the audio source per time interval.
  • the time density for a time interval of, for example, 10 seconds controls how many raindrops, for example, 1,000 raindrops, should occur per second.
  • the time generator 18 is designed to deliver within such a time interval the time points Ti predetermined by the time density. As shown by a dashed line 17, it is also preferable to supply the temporal density information not only to the timing generator 18 but also to the position generator 14, so that the position generator always "ejects" the required amount of positions, which are then output by the timing generator 18 generated times can be assigned. However, it is not essential that the density information be supplied to the position generator. This is unnecessary if the position generator is fast enough Positions ejects and caches these positions so that they are supplied to the single impulse response generator 16 as needed, ie in association with time points or controlled by the temporal density information.
  • the single-pulse response generator 16 is configured to generate single-pulse response information for each position of the plurality of speaker channel locations.
  • the single-pulse response generator operates based on position and based on information about the loudspeaker channel in question. So it is clear that the speaker signal for the lower left speaker of the scenario in Fig. 4 unlike the top right speaker of the scenario in Fig. 4 will look like.
  • the single-pulse response generator 16 will also be configured to account for the position information generated by the position generator.
  • the single impulse response generator is thus the "share” that a particular speaker of the many speakers that the playback environment of Fig. 4 determine, calculate, and express as impulse response, such that when all loudspeakers "play" simultaneously, a user has the impression that a raindrop at position x, y, generated by the position generator, has hit a particular surface is.
  • the inventive apparatus further comprises an impulse response combiner for combining the single impulse response information according to the times of occurrence to obtain combination impulse response information for the loudspeaker channel.
  • the impulse response combiner is designed to ensure that many occurrence events of the audio source have occurred, and that they are combined with each other in real time, namely under the control of the time information.
  • the preferred type of combination is an addition. However, weighted additions / subtractions can also be performed if certain effects are to be achieved. However, a preferred simple addition of the individual impulse responses IAi, taking into account the times of occurrence generated by the time generator 18.
  • the combination impulse response information generated by impulse response combiner 20 is supplied to a filter (or filter device) 21 as well as the audio signal at the output of device 12.
  • the filter 21 is a filter with adjustable impulse response, so with adjustable filter characteristic. While the audio signal at the output of the device 12 will typically be short, the combined impulse response output by the impulse response combiner 20 will be relatively long and vary widely. In principle, the combined impulse response can be arbitrarily long, depending on how long the effect generator is running. For example, if it runs for 30 minutes for a rain that lasts 30 minutes, then the length of the combined impulse response will also be of this order of magnitude.
  • the loudspeaker signal is obtained which, depending on the audio scene, is already the actual loudspeaker signal played by the loudspeaker, or which, if additional audio objects are reproduced by this loudspeaker, is a loudspeaker signal which is another Speaker signal for this speaker is added up to produce a total loudspeaker signal, as it later with reference to Fig. 3 is explained.
  • the filter 21 is thus adapted to filter the audio signal using the combination impulse response information to obtain the loudspeaker channel loudspeaker signal representative of the appearance of the audio source at the various locations and times for a particular loudspeaker channel.
  • Fig. 2a to 2c the functionality of the impulse response combiner 20 is shown. Only are exemplary in Fig. 2a three single-pulse response information IA1, IA2, IA3 shown. Each of the three impulse responses additionally has a certain delay, ie a time delay or a "memory" which has the channel which is described by this impulse response.
  • the delay of the first impulse response IA1 is 1, while the delays of the second and third impulse responses IA2 and IA3 are equal to 2 and 3, respectively.
  • Fig. 2b It can be seen that the three impulse responses are temporally shifted, taking into account their individual delays.
  • the impulse response IA3 is shifted by two delay units with respect to the impulse response IA1.
  • the temporally correctly arranged single impulse responses are summed up in order to obtain the result, thus the combination impulse response information.
  • values of the individual impulse responses located at the same time are added and, if appropriate, subjected to a weighting with a weighting factor before the addition or after the addition.
  • Fig. 2c finally, shows the operation performed by the adjustable impulse response filter 21.
  • the convolution can take place either directly in the time domain as convolution.
  • both the impulse response and the audio signal may be transformed into the frequency domain such that the convolution results in a multiplication of the frequency domain representation of the audio signal and the frequency domain representation of the combined impulse response, which is now the transfer function.
  • Fig. 3 preferred embodiments of the inventive concept, in particular on the generation of the speaker signals for not only one speaker channel, but for many speaker channels, it being noted that the generation of a speaker signal for one speaker channel is basically the same for all other speaker channels.
  • the parameter control 19 is designed to To provide area information as a concrete area preferably in rectangular form.
  • a length 1 and a width b of a surface and a center M of this surface are provided.
  • the area in the reproduction room to which the raindrops should fall may be indicated in such a way that either the entire reproduction space or only part of the reproduction environment is to be "rained” with rain.
  • a particle density is specified, ie the number of particles per one time window.
  • a particulate filter control signal F is supplied, which is used in the later described block of the position-dependent filtering to produce a decorrelation between the raindrops.
  • the overall impression does not become synthetic, but becomes realistic, especially since not all raindrops sound the same, however, and differ within certain limits with respect to their sound.
  • only one particle audio signal is provided for a certain period of time.
  • the particle filter ensures that differences in the sound occur under these same raindrops.
  • the parameter control 19 still surface properties E delivered, which are also used in the position-dependent filtering to z. B. to signal that a raindrop falls on a wooden surface, on a metal surface or on a water surface, so on matter with different properties.
  • the random number generator 14 corresponds to the position generator 14 of FIG Fig. 1 and preferably, like the timing controller 18, includes a true or pseudo-random generator to generate both the individual positions and the individual timings under the control of the area parameter and the density parameter.
  • a wave field synthesis parameter database an input value, namely the position x, y, is assigned a set of single-pulse response information, each single-pulse response information of that set of single-pulse response information being provided for a speaker channel.
  • This pair of scale and delay represents the simplest form of single-pulse response information provided by the single-pulse response generator 16.
  • the impulse response represented by scale and delay has only a single value, namely at the time given by delay, and with an amplitude given by scale.
  • a "correct" impulse response with more than one value is output, which can model the timbre of the drop.
  • a drop that falls on a tin roof get a different impulse response (IR) in block 16b as a drop, due to its position not on a tin roof but z. B. falls on a water surface.
  • the block "position-dependent filtering" 16b thus outputs a set of N filter impulse responses (filter IR), again for each of the individual loudspeakers.
  • filter IR filter impulse responses
  • the impulse response represented by scale and delay is multiplied by the filter impulse response generated for the same loudspeaker channel in block 16b.
  • this multiplication has been performed for each of the N loudspeaker channels, one obtains a set of N single-pulse responses for each particle position, so for each raindrop, as shown in a block 16d.
  • a further or combined impulse response may be provided by which the sound of a raindrop is always slightly modified depending on the position but randomly generated. This ensures that not all raindrops that fall on a tin roof sound exactly the same, but that each or at least some of the raindrops sound different, so as to be more just to nature, where all raindrops are not identical (but similar).
  • the wave field synthesis algorithm results in low-pass filtering that can be perceived by a listener. It is therefore preferred to perform a predistortion already in the filter impulse response in such a way that a preference of the high frequencies takes place such that, when the low-pass effect of the wave field synthesis algorithm occurs, the predistortion is compensated as precisely as possible.
  • the impulse response combiner 20 to be provided for each loudspeaker channel then calculates the combination impulse response for each loudspeaker channel and uses it for filtering in the filter 21 for each loudspeaker channel.
  • each speaker channel such as the speaker channel 1 (block 21 in FIG Fig. 3 ) is then the speaker signal for this speaker channel.
  • the in Fig. 3 shown representation of an adder 30 symbolically to understand.
  • N adders exist for each loudspeaker channel to compute the loudspeaker signal computed by a block 21 with a corresponding loudspeaker signal of another particulate generator 31 having different characteristics and of course also a loudspeaker signal for an audio object as represented by the control file 402 of FIG Fig. 4 is shown to combine.
  • Such a loudspeaker signal is generated by a conventional wave field synthesis device 32.
  • the conventional wave field synthesizer 32 could include a renderer 400 and a control file 402 as shown in FIG Fig. 4 have been shown.
  • the resulting loudspeaker signal for this loudspeaker channel is found (block 33), which then goes to a loudspeaker such as the loudspeaker 403 of FIG Fig. 4 , can be transmitted.
  • the random generator 14 With the help of the parameters from the parameter control, the random generator 14 thus generates positions at which particles are to occur. By the connected timer 18, the frequency of occurring particles is controlled.
  • the timing controller 18 serves as a time reference for the random number generator 14 and the impulse response generators 16a, 16b.
  • the wave field synthesis parameters scaling and delay are generated for each loudspeaker from a precalculated database (16a).
  • a filter impulse response corresponding to the position of the particle is generated, with the generation of the filter impulse response being optional in block 16b.
  • the filter impulse response (FIR filter) and scaling are vectorially multiplied in block 16c. Taking into account the delay, the multiplied, ie scaled filter impulse response is then to some extent "inserted" into the impulse response of the impulse response generator 20.
  • this insertion into the impulse response of the impulse response generator is based on both the delay generated by block 16a and the particle's onset time, such as the start time, mid time, or end time the z. B. a raindrop is "active".
  • the filter impulse response provided by block 16b may also be processed equally with respect to the delay. Since the impulse response provided by block 16a has only one value, this processing simply results in the impulse response output by block 16b being shifted by the value of the delay. This shifting can either take place before insertion in block 20, or the insertion in block 20 can take place in consideration of this delay, which is preferred for reasons of computing time.
  • the impulse response generator 20 is a time buffer configured to sum up the generated impulse responses of the particles along with delays.
  • the timing is further adapted to always pass blocks having a predetermined block length of this time buffer to the FFT convolution in block 21 for each speaker channel. It is preferred to use an FFT convolution, that is a fast convolution based on the Fast Fourier Transform, for the filtering by means of the filter 21.
  • the FFT convolution creases the ever-changing impulse responses with a non-time-varying particle, namely the audio signal provided by the particle audio signal block 12. For each pulse from the impulse response generator, a particle signal thus arises at the respective time in the FFT convolution. Since the FFT convolution is a block-oriented convolution, the particle audio signal can be switched with each block. Here it is preferred to compromise between the required computing power on the one hand and the rate of change of the particle audio signal on the other hand. The computing power of the FFT convolution decreases with larger block sizes, on the other hand, the particle audio signal can only be switched with a larger delay, namely a block. A switch between particle audio signals would be reasonable, for example, when switching from snow to rain, or when switching from rain to hail, or when, for example, switching from a light rain with "small” drops to a harder rain with "big” drops.
  • the output signals of the FFT convolutions for each loudspeaker channel can be compared with the standard loudspeaker signals as shown in Fig. 3 at 30, and of course also summed up with other particle generators for each individual loudspeaker channel, to finally obtain the resulting loudspeaker signal for a loudspeaker channel.
  • the concept according to the invention is advantageous in that a true-to-nature spatial reproduction of frequently occurring sound objects over large listening ranges can be achieved in real time with the aid of a comparatively less computation-intensive computation method.
  • a particle audio signal can be duplicated per algorithm described. Due to the built-in position-dependent filtering, it is further preferred to achieve an alienation of the particle. Furthermore, different algorithms can be used in parallel to generate different particles, thus creating an efficient and lifelike sound scenario.
  • the inventive concept can be used both as an effect device for wave field synthesis systems and for any surround reproduction systems.
  • the three-dimensional system replaces the area information with volume information. Positions are then three-dimensional space positions. The particle density then becomes a particle size / (time volume)
  • the inventive concept is further not limited to wavefield systems of two-dimensional nature.
  • Real three-dimensional systems such as Ambisonics can also be used with modified coefficients (scale, delay, filter impulse response) in the single impulse response generator 16 (FIG. Fig. 1 ).
  • "Half" two-dimensional systems such as all XY formats can also be controlled via modified coefficients.
  • the FFT convolution in the adjustable impulse response filter device 21 can be made computationally favorable with all existing optimization methods (half block length, blockwise decomposition of the impulse response). For example will be on William H. Press, et al., "Numerical Receipts in C", 1998, Cambridge University Press , referenced.
  • the method according to the invention can be implemented in hardware or in software.
  • the implementation may be on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which may interact with a programmable computer system such that the method is performed.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out the method when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Ein Partikelgenerator zum Erzeugen eines Lautsprechersignals für einen Lautsprecherkanal in einer Multikanal- Wiedergabeumgebung umfasst einen Positionsgenerator (14) zum Bereitstellen einer Mehrzahl von Positionen, an denen eine Audioquelle auftreten soll, sowie einen Zeitgenerator (18) zum Bereitstellen von Auftrittszeiten, zu denen die Audioquelle auftreten soll, wobei einer Position eine Zeit zugeordnet ist. Ferner ist ein Einzelimpulsantwortgenerator (16) zum Erzeugen von Einzelimpulsantwortinformationen für jede Position der Mehrzahl von Positionen vorgesehen. Eine Kombinationsimpulsantwort wird durch einen Impulsantwortkombinierer (20) zum Kombinieren der Einzelimpulsantwortinformationen gemäß den Auftrittszeitpunkten gebildet. Diese Gesamtimpulsantwort wird schließlich dazu verwendet, um ein Filter (21) einzustellen, mit dem schließlich das Audiosignal gefiltert wird.

Description

  • Die vorliegende Erfindung bezieht sich auf die Audiosignalverarbeitung und insbesondere auf die Audiosignalverarbeitung bei Systemen mit einer Vielzahl von Lautsprechern, wie beispielsweise Wellenfeldsynthese-Systemen.
  • Fig. 4 zeigt ein typisches Wellenfeldsynthese-Szenario. Herzstück des Wellenfeldsynthese-Systems ist der Wellenfeldsynthese-Renderer 400, der für jeden der einzelnen Lautsprecher 401, die sich um eine Wiedergabeumgebung herum gruppieren, ein eigenes Lautsprechersignal erzeugt. Im Einzelnen existiert zwischen dem Wellenfeldsynthese-Renderer 400 und jedem Lautsprecher somit ein Lautsprecherkanal, auf dem das Lautsprechersignal für diesen Lautsprecher von dem Wellenfeldsynthese-Renderer 400 übertragen wird. Eingangsseitig wird der Wellenfeldsynthese-Renderer 400 von Steuerdaten versorgt, die typischerweise in einer Steuerdatei 402 angeordnet sind. Die Steuerdatei kann eine Liste von Audioobjekten umfassen, wobei jedem Audioobjekt eine virtuelle Position sowie ein Audiosignal zugeordnet ist. Die virtuelle Position ist die Position, die ein Zuhörer, der sich in der Wiedergabeumgebung befindet, lokalisieren wird.
  • Wenn in der Wiedergabeumgebung z. B. eine Filmleinwand angeordnet ist, so wird für den Zuschauer nicht nur ein optisches räumliches Szenario sondern auch ein klangliches räumliches Szenario erzeugt. Hierzu werden alle Lautsprecherkanäle mit Lautsprechersignalen versorgt, die von demselben Audiosignal für eine Quelle, wie beispielsweise einen Schauspieler oder z. B. einen herannahenden Zug, abgeleitet sind. Alle diese Lautsprechersignale unterscheiden sich jedoch mehr oder weniger stark durch ihre Skalierung und ihr Delay des Eingangssignals. Die Skalierung und das Delay für die einzelnen Lautsprechersignale wird durch den Wellenfeldsynthese-Algorithmus erzeugt, der nach dem Hugyen'schen Prinzip arbeitet. Wie es bekannt ist, basiert das Prinzip darauf, dass man jede beliebige Wellenform durch eine große Anzahl von Kugelwellen erzeugen kann. Indem die einzelnen Lautsprecher, die die einzelnen "Kugelwellen" liefern, mit dem gleichen Signal, jedoch mit unterschiedlicher Skalierung und unterschiedlichem Delay beaufschlagt angesteuert werden, hat man dann, wenn man sich in der Wiedergabeumgebung befindet, den Eindruck einer einzigen Schallquelle, die sich nunmehr an der virtuellen Position befindet.
  • Treten mehrere Audioquellen zu einem Zeitpunkt gleichzeitig auf, jedoch an unterschiedlichen virtuellen Positionen, so wird der Wellenfeldsynthese-Renderer das oben beschriebene Prozedere für jedes einzelne Audioobjekt durchführen und dann, bevor die Lautsprechersignale über die Lautsprecherkanäle zu den einzelnen Lautsprechern übertragen werden, eine Aufsummation der einzelnen Komponentensignale durchführen. Wenn beispielsweise der Lautsprecher 403 betrachtet wird, der sich an einer bestimmten Lautsprecherposition befindet, die bekannt ist, wird der Wellenfeldsynthese-Renderer für jedes Audioobjekt ein Komponentensignal erzeugen, das von dem Lautsprecher 403 abgespielt werden soll. Dann, wenn alle Komponentensignale für einen Zeitpunkt für den Lautsprecher 403 berechnet sind, werden die einzelnen Komponentensignale einfach aufaddiert, um das gemeinsame bzw. kombinierte Komponentensignal für den Lautsprecherkanal, der vom Wellenfeldsynthese-Renderer 400 zum Lautsprecher 403 geht, zu erhalten. Ist dagegen nur eine Quelle zu einem Zeitpunkt für den Lautsprecher 403 aktiv, so kann die Aufsummation natürlich entfallen.
  • Typischerweise hat der Wellenfeldsynthese-Renderer 400 praktische Begrenzungen. So wird er in Anbetracht der Tatsache, dass das ganze Wellenfeldsynthese-Konzept ohnehin relativ rechenzeitintensiv ist, nur eine bestimmte Anzahl von einzelnen Quellen gleichzeitig verarbeiten können. Eine typische maximale Anzahl von gleichzeitig zu verarbeitenden Quellen liegt bei 32 Quellen. Diese Anzahl von 32 Quellen ist für typischen Szenen, wie beispielsweise Dialoge ausreichend. Allerdings ist diese Zahl viel zu gering, wenn bestimmte Ereignisse auftreten, wie beispielsweise ein Regengeräusch, das sich aus einer sehr großen Anzahl von einzelnen unterschiedlichen Klangereignissen zusammensetzt. Ein einzelnes Klangereignis ist nämlich das Geräusch, das ein Regentropfen erzeugt, wenn er auf eine bestimmte Oberfläche fällt.
  • Es ist ohne weiteres ersichtlich, dass 32 Regentropfen noch kein realistisches Regengeräusch erzeugen, wenn die 32 Regentropfen lokalisiert als einzelne Audioquellen modelliert werden würden.
  • Daher wurde bisher bei solchen zufälligen Prozessen, die viele Geräuschquellen umfassen, die einzeln nicht verarbeitet werden können, ein insgesamtes Regengeräusch erzeugt und z. B. gleichmäßig in alle Lautsprecherkanäle eingemischt. Allerdings führt dies dazu, dass das Hörerlebnis darunter leidet, dass im Gegensatz zur sonstigen Schallkulisse, die räumlich lokalisiert wahrgenommen werden kann, dies beim Regengeräusch nicht so ist.
  • Im AES Convention Paper "Generation of highly immersive atmospheres for Wave Field Synthesis reproduction", A. Wagner, u. a., 116. Convention, 8.-11. May, Berlin, Deutschland, und in einer ähnlichen Diplomarbeit mit dem Titel "Entwicklung eines Systems zur Erstellung immersiver akustischer Atmosphären für die Wiedergabe mittels Klangfeldsynthese", von A. Walther und A. Wagner, 16. November 2004, werden immersive Atmosphären unter Verwendung von mit speziellen Mikrophonanordnungen aufgezeichneten Geräuschen erzeugt.
  • Die Fachveröffentlichung "Computational Real-Time Sound Synthesis of Rain", S. J. Miklavcic, u. a., Proceedings of the Seventh International Conference on Digital Audio Effects (DAFx '04), Neapel, Italien, 5. bis 8. Oktober 2004, bezieht sich auf die Echtzeitschallsynthese für Computerspiele unter Verwendung einer physikalischen Modellierung des Auftreffens von Regentropfen auf feste Oberflächen oder auf Wasser. Für eine Multi-Lautsprecher-Tonwiedergabe eines Systems mit fünf Lautsprechern, von denen zwei hinter dem Zuhörer, zwei vor dem Zuhörer und ein Lautsprecher in der Mitte vor dem Zuhörer positioniert sind, wird eine Aufschlagzone eines Regentropfens, die um den Zuhörer symmetrisch positioniert ist, in Kreissektoren aufgeteit, die gemäß den Lautsprechern definiert sind. Unter Verwendung einer Zufallsverteilungsfunktion wird ein Tropfenaufschlag simuliert, indem der Sektor des Aufschlags bestimmt wird. Hierauf wird der Schalldruck des Aufschlags zwischen den zwei benachbarten Lautsprechern verteilt und darauf basierend ein Schallsignal für diese beiden Lautsprecher erzeugt.
  • Nachteilig an diesem Konzept ist, dass auch dort keine Partikelpositionen erzeugt werden können, sondern nur Richtungen bezüglich eines Zuhörers durch ein Stereo-Panning zwischen zwei der Auftreffposition des Tropfens benachbarten Lautsprechern einsetzbar ist. Wieder wird für den Zuhörer kein optimales Regengeräusch erzeugt.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein Konzept zum Erzeugen eines Lautsprechersignals zu schaffen, durch das eine höher qualitative Wiedergabe einer Audioquelle ermöglicht wird, die an verschiedenen Positionen zu verschiedenen Zeiten in einer Audioszene auftreten soll.
  • Diese Aufgabe wird durch eine Vorrichtung gemäß Patentanspruch 1, ein Verfahren gemäß Patentanspruch 12 oder ein Computer-Programm gemäß Patentanspruch 13 gelöst.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass sowohl die Position als auch die Zeit, zu der eine Audioquelle in einer Audioszene auftreten soll, synthetisch erzeugt werden können. Abhängig von solchen synthetisch erzeugten Positionen und Zeiten wird erfindungsgemäß für jede Position eine Einzelimpulsantwort erzeugt. Insbesondere gibt die Einzelimpulsantwort die Abbildung der Audioquelle, die an einer bestimmten Position angeordnet ist, auf einen Lautsprecher bzw. ein Lautsprechersignal wieder. Hierauf werden die einzelnen erzeugten EinzelImpulsantwortinformationen zeitrichtig, also abhängig von den Auftrittszeitpunkten, die den Auftrittspositionen zugeordnet sind, kombiniert, um Kombinations-Impulsantwort-Informationen für einen Lautsprecherkanal zu erhalten. Hierauf wird dann das Audiosignal, das die Audioquelle beschreibt, unter Verwendung der Kombinations-Impulsantwort-Informationen gefiltert, um schließlich das Lautsprechersignal für den Lautsprecherkanal zu erhalten, wobei dieses Lautsprechersignal die Audioquelle darstellt.
  • Im Gegensatz zu dem Audiosignal, das die Audioquelle unmittelbar darstellt, das also eine Aufzeichnung eines solchen einzelnen Ereignisses ist, wie beispielsweise eines aufschlagenden Regentropfens, stellt das Lautsprechersignal für den Lautsprecherkanal das Gesamtsignal dar, das aufgrund des mehrfach zu bestimmten Zeitpunkten aufgetretenen Audiosignals existiert, wobei die einzelnen Ereignisse des Auftretens des Regentropfens im Wiedergaberaum eindeutig durch determinierte virtuelle Positionen lokalisiert sind.
  • Damit wird eine naturgetreue Regenkulisse innerhalb des Wiedergaberaums erzeugt, von der der Benutzer denkt, dass sie nicht nur entfernt irgendwo an der Leinwand oder hinter der Leinwand stattfindet, sondern von der der Zuhörer den Eindruck hat, dass er im wahrsten Sinn des Wortes "im Regen steht".
  • Im Gegensatz zum Stand der Technik, bei dem typischerweise Impulsantworten stationär oder nur sehr langsam veränderlich sind, während das durch ein Filter, der durch die Impulsantwort bestimmt wird, gefilterte Audiosignal sehr stark veränderlich ist, wird erfindungsgemäß genau der andere Weg gegangen. So wird nur ein einziges typischerweise sehr kurzes Audiosignal genommen, das durch ein Filter gefiltert wird, welches durch eine typischerweise sehr lange Impulsantwort, die sich sehr stark zeitlich ändert, beschrieben wird. Es wird also ein Filter erzeugt, das auch bei sehr großen Verzögerungen signifikante Impulsantwort-Werte hat, da diese Werte letztendlich einen Regentropfen-Aufschlag beispielsweise bestimmen, der zu einem bestimmten späte(re)n Zeitpunkt stattfindet.
  • Erfindungsgemäß wird also erreicht, dass insbesondere für große Räume ein einhüllender Effekt mittels zufällig auftretender Partikel, also z. B. kurzzeitig auftretender Schallquellen wie Regentropfen, erreicht wird. Ohne Hardware-Begrenzungen eines Wellenfeldsynthese-Renderers, der z. B. nur 32 Kanäle gleichzeitig rendern kann, kann erfindungsgemäß eine beliebige Häufigkeit der einzelnen Schallobjekte, wie beispielsweise Regentropfen, erzeugt werden.
  • Erfindungsgemäß können daher räumlich verteilte Partikel mit großer Wiederholrate und für große Räume in Echtzeit wiedergegeben werden. So können erfindungsgemäß Schallquellen gleichzeitig an unterschiedlichen Punkten im Raum auftreten und gleichzeitig simuliert werden. Insbesondere für große Räume mit einer dichten Belegung von Schallquellen wird erfindungsgemäß eine hohe Anzahl von Eingangskanälen benötigt, da die Signale aufgrund der einzelnen Quellen innerhalb des Wellenfeldsynthese-Renderers erzeugt werden. Für eine beliebig große Anzahl von Regentropfen beispielsweise genügt ein einziges Audioobjekt, das das Audiosignal des Regentropfens umfasst. Die Anzahl der an verschiedenen virtuellen Positionen angeordneten mehr oder weniger gleichzeitig auftretenden Regentropfen äußert sich nur daran, wie viel einzelne Impulsantworten generiert und kombiniert werden.
  • Da die Erzeugung der einzelnen Impulsantworten jedoch genauso wie die Kombination der einzelnen Impulsantworten rechenzeiteffizient gestaltet werden können, führt das erfindungsgemäße Konzept zu einer erheblichen Rechenzeitverringerung im Vergleich zu dem Fall, bei dem für jedes Audioobjekt eine eigene virtuelle Quelle an einer eigenen virtuellen Position z. B. über eine Steuerdatei einem Wellenfeldsynthese-Renderer bereitgestellt wird. Aufgrund der erfindungsgemäßen Zusammenfassung der einzelnen Impulsantworten führt eine beliebig hohe Anzahl von Regentropfen an verschiedenen Positionen nicht zu einer entsprechend großen Anzahl von Faltungen, sondern führt nur zu einer einzigen Faltung einer (großen) Impulsantwort mit dem Audiosignal, das die Audioquelle (den Regentropfen) darstellt. Auch dies ist ein Grund dafür, dass das erfindungsgemäße Konzept sehr rechenzeiteffizient ausführbar ist.
  • Erfindungsgemäß wird daher mit Hilfe eines neuartigen Algorithmus eine beliebige Primärschallquelle beliebig häufig virtuell über Wellenfeldsynthese über eine beliebig große Hörfläche wiedergegeben. Die benötigte Rechenleistung ist dabei um ein Vielfaches geringer als bei derzeitigen Wellenfeldsynthese-Algorithmen.
  • Vorzugsweise wird mittels eines Zufallszahlengenerators eine Erzeugung von Parametern wie mittlere Partikeldichte pro Zeit, zweidimensionale Position im Raum, dreidimensionale Position im Raum, individuelle Filterung jedes Partikels mittels Impulsantwort vorgenommen. Auch für X.Y-Multikanal-Surroundformat kann das erfindungsgemäße Konzept günstig eingesetzt werden.
  • Ferner wird es bevorzugt, mit Hilfe der Impulsantwort z. B. den Klang des Partikels, beispielsweise Regentropfen, zu verändern bzw. eine physikalische Eigenschaft zu simulieren, wie beispielsweise dass der Regentropfen auf ein Holz oder auf ein Blech fällt, was natürlich unterschiedliche Geräusche zur Folge hat.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
  • Fig. 1
    ein schematisches Blockschaltbild des erfindungsgemäßen Konzepts;
    Fig. 2a
    eine schematische Darstellung von drei verschiedenen Impulsantworten für die Audioquelle an verschiedenen Positionen und verschiedenen Zeitpunkten;
    Fig. 2b
    eine schematische Darstellung der zeitlich bezüglich der Verzögerungen angeordneten Einzelimpulsantworten und einer durch Aufsummation erzeugten kombinierten Impulsantwort;
    Fig. 2c
    eine schematische Darstellung des Filterns des Audiosignals für die Audioquelle unter Verwendung eines Filters, das durch die kombinierte Impulsantwort dargestellt ist, um das Lautsprechersignal für einen Lautsprecherkanal zu erhalten;
    Fig. 3
    ein Blockschaltbild der erfindungsgemäßen Vorrichtung gemäß einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung; und
    Fig. 4
    ein Prinzipblockschaltbild eines typischen Wellenfeldsynthese-Szenarios.
  • Fig. 1 zeigt ein Übersichtsdiagramm einer erfindungsgemäßen Vorrichtung zum Erzeugen eines Lautsprechersignals an einem Ausgang 10 für einen Lautsprecherkanal, der einem Lautsprecher (wie beispielsweise 403) zugeordnet ist, der in einer Wiedergabeumgebung an einer Lautsprecherposition einer Mehrzahl von Lautsprecherpositionen anbringbar ist. Im Einzelnen umfasst die in Fig. 1 gezeigte bevorzugte Ausführungsform der erfindungsgemäßen Vorrichtung eine Einrichtung 12 zum Liefern eines Audiosignals für eine Audioquelle, die an verschiedenen Positionen und zu verschiedenen Zeiten in einer Audioszene auftreten soll. Die Einrichtung zum Liefern des Audiosignals ist typischerweise ein Speichermedium, auf dem ein Audiosignal, das z. B. einen auftreffenden Regentropfen oder ein Geräusch eines anderen Partikels, wie beispielsweise ein sich näherndes oder sich entfernendes Raumschiff z. B. für ein Weltraum-Computerspiel, ein Hufschlag eines Pferdes oder eines Rindes in einer Pferde-/Rinderherde, etc. ist. Erfindungsgemäß wird dieses Audiosignal für die Audioquelle einmal vorzugsweise innerhalb des Wellenfeldsynthese-Renderers, wie beispielsweise eines Renderers 400 von Fig. 4, fest abgespeichert und braucht daher nicht über die Steuerdatei zugeführt werden. Natürlich kann das Audiosignal auch über die Steuerdatei dem Renderer zugeführt werden. In diesem Fall wäre die Einrichtung 12 zum Liefern des Audiosignals eine Steuerdatei samt zugeordneter Auslese-/Übertragungseinrichtung.
  • Die erfindungsgemäße Vorrichtung umfasst ferner einen Positionsgenerator zum Bereitstellen einer Mehrzahl von Positionen, an denen die Audioquelle auftreten soll. Der Positionsgenerator 14 ist ausgebildet, um, wenn Fig. 4 betrachtet wird, virtuelle Positionen zu generieren, die sich innerhalb oder außerhalb der Wiedergabeumgebung befinden können. Wenn davon ausgegangen wird, dass sich am oberen Ende der Wiedergabeumgebung in Fig. 4 z. B. eine Leinwand befindet, auf die ein Film projiziert wird, so können die virtuellen Positionen selbstverständlich auch hinter der Leinwand oder vor der Leinwand sein.
  • Je nach Implementierung kann der Positionsgenerator 14 ausgebildet sein, um beliebige (x, y)-Positionen innerhalb oder außerhalb der Wiedergabeumgebung zu liefern. Alternativ oder zusätzlich kann, je nach Ausführung des Lautsprecherarrays auch eine z-Positions-Komponente erzeugt werden, also ob der Zuhörer eine Quelle über sich oder gegebenenfalls sogar unter sich lokalisieren soll. Des weiteren ist der Positionsgenerator ausgebildet, um je nach Implementierung eines nachfolgend beschriebenen Einzelimpulsantwortgenerators 16 beliebige Positionen in der Wiedergabeumgebung oder außerhalb der Wiedergabeumgebung zu liefern, oder nur Positionen in einem bestimmten Raster. Die Erzeugung von Positionen nur innerhalb eines bestimmten Rasters ist dann vorteilhaft, wenn in dem nachfolgend noch beschriebenen Einzelimpulsantwortgenerator 16 eine Nachschlagtabelle eingesetzt wird, um zumindest einen Teil oder auch die komplette Einzelimpulsantwort zu erzeugen. Wird dagegen eine kontinuierliche Positionserzeugung durch den Positionsgenerator 14 vorgenommen, so kann entweder am Ausgang des Positionsgenerators 14 oder am Eingang des Einzelimpulsantwortgenerators 16 eine Positions-Rundung auf das Raster stattfinden. Alternativ können auch beliebig fein aufgelöste Positionen durch den Einzelimpulsantwortgenerator verarbeitet werden, um ohne weitere Positions-Rundungen/Quantisierungen die Einzelimpulsantworten zu berechnen. Eingangsseitig erhält der Positionsgenerator 14 Flächeninformationen oder Volumeninformationen für den dreidimensionalen Fall, die anzeigen, in welchem Bereich Positionen erzeugt werden sollen. In anderen Worten ausgedrückt definieren die Flächeninformationen eine typischerweise zur Leinwand senkrecht stehende Fläche, innerhalb derer Regen fallen soll. So könnte beispielsweise der Wunsch bestehen, einen Regen derart zu simulieren, dass die vordere Hälfte der Wiedergabeumgebung, also die vordere Hälfte der Zuschauer unter einem Blechdach angeordnet ist, während die hintere Hälfte der Zuschauer gewissermaßen "im Regen" sitzt. Hierzu würde der Positionsgenerator in der gesamten Wiedergabeumgebung Positionen erzeugen können, da es in der gesamten Wiedergabeumgebung regnet. Ist die Anforderung jedoch derart, dass z. B. nur in der vorderen Hälfte der Wiedergabeumgebung ein Regen stattfinden soll, während es in der hinteren Hälfte aus irgendwelchen Gründen nicht regnen soll, so würde der Positionsgenerator 14 durch die Flächeninformationen gesteuert werden, um nur in der vorderen Hälfte, wo es regnen soll, virtuelle Positionen x, y zu erzeugen.
  • Die erfindungsgemäße Vorrichtung umfasst ferner einen Zeitgenerator 18 zum Bereitstellen von Auftrittszeiten, zu denen die Audioquelle auftreten soll, wobei einer Position, die vom Positionsgenerator 14 erzeugt wird, eine Zeit zugeordnet ist. Es existieren somit einander zugeordnete Paare Pi, Ti, wobei Pi eine Position mit der Nummer i darstellt, während Ti eine Zeit mit der Nummer i darstellt, zu der die Position Pi aktiv sein soll. Vorzugsweise wird der Zeitgenerator 18 von einem Dichteparameter gesteuert, welcher ebenso wie die Flächeninformationen für den Positionsgenerator 14 von einer Parametersteuerung 19 geliefert wird. Der Zeitgenerator 18 erhält als Parameter somit die zeitliche Dichte, also die Anzahl von Auftrittsereignissen der Audioquelle pro Zeitintervall. In anderen Worten ausgedrückt steuert die zeitliche Dichte für ein Zeitintervall von beispielsweise 10 Sekunden, wie viel Regentropfen, nämlich beispielsweise 1.000 Regentropfen, pro Sekunde auftreten sollen. Eine kleinere zeitliche Dichte führt zu weniger Tropfen, während eine größere zeitliche Dichte zu mehr Tropfen pro einem festen Zeitintervall führt. Der Zeitgenerator 18 ist ausgebildet, um innerhalb eines solchen Zeitintervalls die durch die zeitliche Dichte vorgegebenen Zeitpunkte Ti zu liefern. Wie es durch eine gestrichelte Leitung 17 dargestellt ist, wird es auch bevorzugt, die zeitliche Dichteinformation nicht nur dem Zeitgenerator 18 sondern auch dem Positionsgenerator 14 zuzuführen, damit der Positionsgenerator immer die erforderliche Menge an Positionen "auswirft", denen dann die durch den Zeitgenerator 18 erzeugten Zeiten zugeordnet werden können. Es ist jedoch nicht unbedingt erforderlich, dass die Dichteinformationen dem Positionsgenerator zugeführt werden. Dies ist dann entbehrlich, wenn der Positionsgenerator ausreichend schnell Positionen auswirft und diese Positionen zwischenspeichert, damit sie bei Bedarf, also in Zuordnung zu Zeitpunkten bzw. gesteuert von der zeitlichen Dichteinformation dem Einzelimpulsantwortgenerator 16 zugeführt werden.
  • Allgemein ist der Einzelimpulsantwortgenerator 16 ausgebildet, um Einzelimpulsantwortinformationen für jede Position der Mehrzahl von Positionen für einen Lautsprecherkanal zu erzeugen. Insbesondere arbeitet der Einzelimpulsantwortgenerator basierend auf der Position und basierend auf Informationen über den Lautsprecherkanal, um den es geht. So ist es klar, dass das Lautsprechersignal für den linken unteren Lautsprecher des Szenarios in Fig. 4 anders als für den rechten oberen Lautsprecher des Szenarios in Fig. 4 aussehen wird. Ferner wird der Einzelimpulsantwortgenerator 16 auch ausgebildet sein, um die Positionsinformation, die vom Positionsgenerator erzeugt worden ist, zu berücksichtigen. Der Einzelimpulsantwortgenerator wird also den "Anteil", den ein bestimmter Lautsprecher der vielen Lautsprecher, die die Wiedergabeumgebung von Fig. 4 bestimmen, berechnen und als Impulsantwort ausdrücken, derart, dass dann, wenn alle Lautsprecher gleichzeitig "spielen", ein Benutzer den Eindruck hat, dass ein Regentropfen an der Position x, y, die durch den Positionsgenerator erzeugt worden ist, auf eine bestimmte Oberfläche aufgetroffen ist.
  • Die erfindungsgemäße Vorrichtung umfasst ferner einen Impulsantwortkombinierer zum Kombinieren der Einzelimpulsantwortinformationen gemäß den Auftrittszeiten, um Kombinations-Impulsantwortinformationen für den Lautsprecherkanal zu erhalten. Der Impulsantwortkombinierer ist ausgebildet, um sicherzustellen, dass viele Auftrittsereignisse der Audioquelle aufgetreten sind, und dass diese zeitrichtig, nämlich gesteuert durch die Zeitinformationen miteinander kombiniert werden. Die bevorzugte Art der Kombination ist eine Addition. Jedoch können auch gewichtete Additionen/Subtraktionen durchgeführt werden, wenn bestimmte Effekte erzielt werden sollen. Bevorzugt wird jedoch eine einfache Aufaddition der einzelnen Impulsantworten IAi, und zwar unter Berücksichtigung der von dem Zeitgenerator 18 erzeugten Auftrittszeiten.
  • Die von dem Impulsantwortkombinierer 20 erzeugten Kombinations-Impulsantwortinformationen werden schließlich genauso wie das Audiosignal am Ausgang der Einrichtung 12 einem Filter (bzw. einer Filtervorrichtung) 21 zugeführt. Das Filter 21 ist ein Filter mit einstellbarer Impulsantwort, also mit einstellbarer Filtercharakteristik. Während das Audiosignal am Ausgang der Einrichtung 12 typischerweise kurz sein wird, wird die kombinierte Impulsantwort, die durch den Impulsantwortkombinierer 20 ausgegeben wird, relativ lang sein und stark variieren. Prinzipiell kann die kombinierte Impulsantwort beliebig lang sein, abhängig davon, wie lange der Effektgenerator läuft. Läuft er beispielsweise 30 Minuten für einen Regen, der 30 Minuten dauert, so wird die Länge der kombinierten Impulsantwort ebenfalls in dieser Größenordnung sein.
  • Auf jeden Fall wird am Ausgang des Filters 21 das Lautsprechersignal erhalten, das je nach Audioszene bereits das tatsächliche Lautsprechersignal ist, das von dem Lautsprecher abgespielt wird, oder das, wenn zusätzliche Audioobjekte von diesem Lautsprecher wiedergegeben werden, ein Lautsprechersignal ist, das mit einem anderen Lautsprechersignal für diesen Lautsprecher aufaddiert wird, um ein Gesamtlautsprechersignal zu erzeugen, wie es später noch anhand von Fig. 3 erläutert wird. Das Filter 21 ist also ausgebildet, um das Audiosignal unter Verwendung der Kombinations-Impulsantwortinformationen zu filtern, um das Lautsprechersignal für den Lautsprecherkanal zu erhalten, das das Auftreten der Audioquelle an den verschiedenen Positionen und zu den verschiedenen Zeiten für einen bestimmten Lautsprecherkanal darstellt.
  • Nachfolgend wird anhand von Fig. 2a bis 2c die Funktionalität des Impulsantwortkombinierers 20 dargestellt. Lediglich beispielhaft sind in Fig. 2a drei Einzelimpulsantwortinformationen IA1, IA2, IA3 dargestellt. Jede der drei Impulsantworten hat zusätzlich noch eine bestimmte Delay, also eine zeitliche Verzögerung bzw. ein "Gedächtnis", das der Kanal hat, der durch diese Impulsantwort beschrieben wird. Die Delay der ersten Impulsantwort IA1 beträgt 1, während die Delays der zweiten und dritten Impulsantwort IA2 und IA3 gleich 2 bzw. 3 sind. Nunmehr werden, wie es in Fig. 2b ersichtlich ist, die drei Impulsantworten unter Berücksichtigung ihrer einzelnen Delays zeitlich verschoben angeordnet. Es ist zu sehen, dass die Impulsantwort IA3 um zwei Delay-Einheiten bezüglich der Impulsantwort IA1 verschoben ist. Das in Fig. 2a gezeigte Beispiel beschreibt den Fall, bei dem die Auftrittszeitpunkte T1, Ti identisch sind, und zwar den Zeitpunkt T = 0 betreffend. Würde jedoch z. B. der Auftrittszeitpunkt T3 um drei Zeiteinheiten nach hinten bezüglich der Auftrittszeitpunkte der beiden anderen Impulsantworten verschoben sein, so würde die Impulsantwort IA3 erst zum Zeitpunkt 6 im oberen Teilbild von Fig. 2b starten.
  • Hierauf werden die zeitlich korrekt angeordneten Einzelimpulsantworten aufsummiert, um das Ergebnis, also die Kombinations-Impulsantwortinformationen zu erhalten. Insbesondere werden zu gleichen Zeitpunkten befindliche Werte der einzelnen Impulsantworten addiert und gegebenenfalls vor der Addition oder nach der Addition einer Gewichtung mit einem Gewichtungsfaktor unterzogen.
  • An dieser Stelle sei darauf hingewiesen, dass die Darstellung in den Fig. 2a und 2b nur schematisch ist. So muss die zeitliche korrekte Anordnung nicht unbedingt direkt in einem Registerspeicher eines Prozessors ausgeführt werden, bevor die Aufsummation stattfindet. Statt dessen wird es bevorzugt, die einzelnen Impulsantworten unmittelbar vor der Aufaddition zeitlichen Verschiebungsoperationen gemäß den Delays und den erforderlichen Auftrittszeitpunkten zu unterziehen.
  • Fig. 2c zeigt schließlich die Operation, die durch das Filter 21 mit einstellbarer Impulsantwort durchgeführt wird. Insbesondere wird die kombinierte Impulsantwort im obersten Teilbild von Fig. 2c mit dem Audiosignal im mittleren Teilbild von Fig. 2c gefaltet, um schließlich das Lautsprechersignal für einen Lautsprecherkanal zu erhalten. Die Faltung kann entweder unmittelbar im Zeitbereich als Faltung stattfinden. Alternativ können sowohl die Impulsantwort als auch das Audiosignal in den Frequenzbereich transformiert werden, sodass aus der Faltung eine Multiplikation der Frequenzbereichsdarstellung des Audiosignals und der Frequenzbereichsdarstellung der kombinierten Impulsantwort, die nunmehr die Übertragungsfunktion ist, wird.
  • Je nach Implementierung können auch andere typischerweise blockorientierte Faltungs-Algorithmen, wie beispielsweise die FFT-Faltung eingesetzt werden. Hierbei ist günstig, dass die Kombinations-Impulsantwort immer blockweise erzeugt wird. So ist zu sehen, dass ohne weiteres bereits der Abschnitt der kombinierten Impulsantwort von den Zeiten 1 bis 4 bereits verwendet werden kann, während spätere Abschnitte zu späteren Zeiten gerade berechnet werden. Damit wird sichergestellt, dass das erfindungsgemäße Konzept relativ verzögerungsarm und damit mit einem begrenzten Aufwand an Pufferspeicher implementierbar ist.
  • Nachfolgend wird Bezug nehmend auf Fig. 3 auf bevorzugte Implementierungen des erfindungsgemäßen Konzepts eingegangen, und zwar insbesondere auf die Erzeugung der Lautsprechersignale für nicht nur einen Lautsprecherkanal, sondern für viele Lautsprecherkanäle, wobei darauf hingewiesen wird, dass die Erzeugung eines Lautsprechersignals für einen Lautsprecherkanal prinzipiell für alle anderen Lautsprecherkanäle gleich abläuft.
  • Bei dem in Fig. 3 gezeigten bevorzugten Ausführungsbeispiel der Erfindung ist die Parametersteuerung 19 ausgebildet, um Flächeninformationen als konkrete Fläche vorzugsweise in rechteckiger Form zu liefern. So werden eine Länge 1 und eine Breite b einer Fläche sowie ein Mittelpunkt M dieser Fläche bereitgestellt. Damit kann die Fläche im Wiedergaberaum, auf die beispielsweise die Regentropfen fallen sollen, angegeben werden, und zwar dahingehend, dass entweder der gesamte Wiedergaberaum oder nur ein Teil der Wiedergabeumgebung mit Regen "beregnet" werden soll. Ferner wird eine Partikeldichte angegeben, also die Anzahl der Partikel pro einem Zeitfenster. Darüber hinaus wird ein Partikelfiltersteuersignal F geliefert, das bei dem noch später beschriebenen Block der positionsabhängigen Filterung eingesetzt wird, um eine Dekorrelation zwischen den Regentropfen zu erzeugen. Dies führt dazu, dass der insgesamte Eindruck nicht synthetisch wird, sondern realistisch wird, zumal natürlich nicht alle Regentropfen gleich klingen sondern in gewissen Grenzen bezüglich ihres Klangs voneinander abweichen. Allerdings wird erfindungsgemäß nur ein Partikelaudiosignal für eine bestimmte Zeitdauer bereitgestellt. Das Partikelfilter stellt jedoch sicher, dass unter diesen eigentlich gleichen Regentropfen Unterschiede im Klang auftreten.
  • Schließlich werden von der Parametersteuerung 19 noch Flächeneigenschaften E geliefert, die ebenfalls bei der positionsabhängigen Filterung eingesetzt werden, um z. B. zu signalisieren, dass ein Regentropfen auf eine Holzoberfläche, auf eine Blechoberfläche oder auf eine Wasseroberfläche, also auf Materien mit verschiedenen Eigenschaften fällt.
  • Der Zufallsgenerator 14 entspricht dem Positionsgenerator 14 von Fig. 1 und umfasst vorzugsweise ebenso wie die Zeitsteuerung 18 einen echten oder Pseudozufallsgenerator, um sowohl die einzelnen Positionen als auch die einzelnen Zeitpunkte gesteuert durch den Flächenparameter und den Dichteparameter zu erzeugen. Abhängig von einer vom Zufallsgenerator erzeugten Position x, y wird bei dem in Fig. 3 gezeigten bevorzugten Ausführungsbeispiel der vorliegenden Erfindung in eine Wellenfeldsynthese-Parameter-Datenbank gegangen. In dieser Wellenfeldsynthese-Parameter-Datenbank ist einem Eingangswert, nämlich der Position x, y, ein Satz von Einzelimpulsantwortinformationen zugeordnet, wobei jede Einzelimpulsantwortinformation dieses Satzes von Einzelimpulsantwortinformationen für einen Lautsprecherkanal vorgesehen ist. Für jeden einer Anzahl von N Lautsprechern bzw. für jede einer Anzahl von N Lautsprechergruppen werden nunmehr ein Skalierungswert (Scale) und eine Verzögerung (Delay) geliefert. Dieses Paar aus Scale und Delay stellt die einfachste Form der Einzelimpulsantwortinformationen dar, die durch den Einzelimpulsantwortgenerator 16 geliefert werden. Die Impulsantwort, die durch Scale und Delay dargestellt ist, hat nur einen einzigen Wert, nämlich zum Zeitpunkt der durch Delay gegeben ist, und mit einer Amplitude, die durch Scale gegeben ist.
  • Es wird jedoch bevorzugt, neben dem Zugriff auf die Wellenfeldsynthese-Parameter-Datenbank 16a auch eine weitere Tabelle im Block (positionsabhängige Filterung 16b) zu verwenden. Abhängig von der Position x, y wird eine "richtige" Impulsantwort mit mehr als einem Wert ausgegeben, die die Klangfarbe des Tropfens modellieren kann. So wird ein Tropfen, der auf ein Blechdach fällt, eine andere Impulsantwort (IR) im Block 16b bekommen als ein Tropfen, der aufgrund seiner Position nicht auf ein Blechdach sondern z. B. auf eine Wasserfläche fällt. Durch den Block "positionsabhängige Filterung" 16b wird also ein Satz von N Filter-Impulsantworten (Filter-IR) ausgegeben, und zwar wieder für jeden der einzelnen Lautsprecher. In einem Multiplikationsblock 16c findet dann eine Multiplikation pro Lautsprecherkanal statt. Insbesondere wird die durch Scale und Delay dargestellte Impulsantwort mit der für denselben Lautsprecherkanal im Block 16b erzeugten Filter-Impulsantwort multipliziert. Wenn diese Multiplikation für jeden der N Lautsprecherkanäle durchgeführt worden ist, erhält man einen Satz von N Einzelimpulsantworten für jede Partikelposition, also für jeden Regentropfen, wie es in einem Block 16d dargestellt ist.
  • Durch den Block 16b können ferner weitere Funktionalitäten implementiert werden. Zusätzlich zur Bereitstellung eines positionsabhängigen Filters, das die Klangfarbe des Regentropfens berücksichtigt, kann ferner eine weitere oder kombinierte Impulsantwort bereitgestellt werden, durch die abhängig von der Position, jedoch zufällig generiert, der Klang eines Regentropfens immer etwas modifiziert wird. Damit wird sichergestellt, dass sich nicht alle Regentropfen, die auf ein Blechdach fallen, genau gleich anhören, sondern dass sich jeder bzw. wenigstens einige der Regentropfen unterschiedlich anhören, um somit der Natur gerechter zu werden, bei der sich alle Regentropfen nicht identisch (aber ähnlich) anhören.
  • Des weiteren wird es bevorzugt, in der durch den Block 16b bereitgestellten Impulsantwort auch das Tiefpass-Artefakt der Wellenfeldsynthese zu berücksichtigen. So hat sich herausgestellt, dass der Wellenfeldsynthese-Algorithmus dazu führt, dass eine Tiefpassfilterung stattfindet, die durch eine Zuhörer wahrgenommen werden kann. Es wird daher bevorzugt, in der Filter-Impulsantwort bereits eine Vorverzerrung durchzuführen, derart, dass eine Bevorzugung der hohen Frequenzen stattfindet, derart, dass dann, wenn der Tiefpasseffekt des Wellenfeldsynthese-Algorithmus auftritt, die Vorverzerrung möglichst genau kompensiert ist.
  • Für die Impulsantworten für die N Lautsprecher pro Partikelposition, die im Block 16d ermittelt worden sind, wird dieses Prozedere für andere Partikelpositionen wiederholt, sodass, wie es bereits anhand von Fig. 2a dargestellt worden ist, nunmehr für jede Partikelposition eine Filter-Impulsantwort vorhanden ist, die bereits mit dem Skalierungswert (Scale), der durch den Block 16a geliefert wird, skaliert ist, und der die Verzögerung (Delay) zugeordnet ist, wie es anhand von Fig. 2a bereits erläutert worden ist.
  • Durch den Impulsantwortkombinierer 20, der für jeden Lautsprecherkanal vorzusehen ist, wird dann für jeden Lautsprecherkanal die Kombinations-Impulsantwort berechnet und für jeden Lautsprecherkanal zum Filtern im Filter 21 verwendet.
  • Am Ausgang jedes Lautsprecherkanals, wie beispielsweise des Lautsprecherkanals 1 (Block 21 in Fig. 3) liegt dann das Lautsprechersignal für diesen Lautsprecherkanal vor. Insofern ist die in Fig. 3 gezeigte Darstellung eines Addierers 30 symbolisch zu verstehen. In der Tat existieren N Addierer, um für jeden Lautsprecherkanal das durch einen Block 21 berechnete Lautsprechersignal mit einem entsprechenden Lautsprechersignal eines anderen Partikelgenerators 31 mit anderen Eigenschaften und natürlich auch mit einem Lautsprechersignal für ein Audioobjekt, wie es durch das Steuerfile 402 von Fig. 4 dargestellt ist, zu kombinieren. Ein solches Lautsprechersignal wird durch eine herkömmliche Wellenfeldsyntheseanordnung 32 generiert. Die herkömmliche Wellenfeldsynthesevorrichtung 32 könnte beispielsweise einen Renderer 400 und einer Steuerdatei 402, wie sie in Fig. 4 dargestellt worden sind, umfassen. Am Ausgang eines Addierers 30 findet sich dann nach einer Addition der einzelnen Lautsprechersignale für einen Lautsprecherkanal das resultierende Lautsprechersignal für diesen Lautsprecherkanal (Block 33), das dann zu einem Lautsprecher, wie beispielsweise dem Lautsprecher 403 von Fig. 4, übermittelt werden kann.
  • Mit Hilfe der Parameter aus der Parametersteuerung erzeugt der Zufallsgenerator 14 somit Positionen, an denen Partikel auftreten sollen. Durch die angeschlossene Zeitsteuerung 18 wird die Häufigkeit der auftretenden Partikel gesteuert. Die Zeitsteuerung 18 dient als Zeitreferenz für den Zufallsgenerator 14 und die Impulsantwortgeneratoren 16a, 16b. Mit der Partikelposition aus dem Zufallsgenerator 14 werden zum einen die Wellenfeldsyntheseparameter Skalierung und Verzögerung für jeden Lautsprecher aus einer vorberechneten Datenbank (16a) erzeugt. Zum anderen wird eine Filterimpulsantwort entsprechend der Position des Partikels erzeugt, wobei die Erzeugung der Filterimpulsantwort in Block 16b optional ist. Die Filterimpulsantwort (FIR-Filter) und die Skalierung werden in Block 16c vektoriell multipliziert. Unter Berücksichtigung der Verzögerung wird dann die multiplizierte, also skalierte Filterimpulsantwort gewissermaßen in die Impulsantwort des Impulsantwortgenerators 20 "eingefügt".
  • Es sei darauf hingewiesen, dass diese Einfügung in die Impulsantwort des Impulsantwortgenerators sowohl basierend auf der Delay, die durch den Block 16a erzeugt wird, als auch basierend auf einer Auftrittszeit des Partikels, wie beispielsweise dem Anfangszeitpunkt, einem mittleren Zeitpunkt oder einem Endzeitpunkt erfolgt, zu dem z. B. ein Regentropfen "aktiv" ist.
  • Alternativ kann die Filter-Impulsantwort, die durch den Block 16b geliefert wird, auch gleich im Hinblick auf die Delay verarbeitet werden. Da die Impulsantwort, die durch den Block 16a geliefert wird, nur einen Wert hat, führt diese Verarbeitung einfach dazu, dass die Impulsantwort, die durch den Block 16b ausgegeben wird, um den Wert der Delay verschoben wird. Dieses Verschieben kann entweder bereits vor dem Einfügen im Block 20 stattfinden, oder die Einfügung in dem Block 20 kann unter Berücksichtigung dieser Delay erfolgen, was aus Rechenzeitgründen bevorzugt wird.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist der Impulsantwortgenerator 20 ein Zeitpuffer, der ausgebildet ist, um die generierten Impulsantworten der Partikel samt Verzögerungen aufzusummieren.
  • Die Zeitsteuerung ist ferner ausgebildet, um immer Blöcke mit einer vorbestimmten Blocklänge dieses Zeitpuffers an die FFT-Faltung im Block 21 für jeden Lautsprecherkanal weiterzugeben. Es wird bevorzugt, für die Filterung mittels des Filters 21 eine FFT-Faltung zu verwenden, also eine schnelle Faltung, die auf der Fast Fourier Transform basiert.
  • Die FFT-Faltung faltet die sich ständig ändernden Impulsantworten mit einem sich zeitlich nicht ändernden Partikel, nämlich mit dem Audiosignal, das aus dem Block PartikelAudiosignal 12 geliefert wird. Für jeden Impuls aus dem Impulsantwortgenerator entsteht also zu dem jeweiligen Zeitpunkt in der FFT-Faltung ein Partikelsignal. Da die FFT-Faltung eine blockorientierte Faltung ist, kann das Partikelaudiosignal mit jedem Block umgeschaltet werden. Hier wird es bevorzugt, einen Kompromiss einzugehen zwischen benötigter Rechenleistung einerseits und Änderungsgeschwindigkeit des Partikelaudiosignals andererseits. Die Rechenleistung der FFT-Faltung verringert sich mit größeren Blockgrößen, andererseits kann das Partikelaudiosignal nur mit einer größeren Verzögerung, nämlich einem Block, umgeschaltet werden. Eine Umschaltung zwischen Partikelaudiosignalen wäre beispielsweise dann vernünftig, wenn von Schnee auf Regen umgeschaltet wird, oder wenn von Regen auf Hagel umgeschaltet wird, oder wenn beispielsweise von einem leichten Regen mit "kleinen" Tropfen auf einen härteren Regen mit "großen" Tropfen umgeschaltet wird.
  • Die Ausgangssignale der FFT-Faltungen für jeden Lautsprecherkanal können mit den Standard-Lautsprechersignalen, wie es in Fig. 3 bei 30 gezeigt ist, und natürlich auch mit anderen Partikelgeneratoren für jeweils jeden einzelnen Lautsprecherkanal aufsummiert werden, um schließlich das resultierende Lautsprechersignal für einen Lautsprecherkanal zu erhalten.
  • Das erfindungsgemäße Konzept ist dahingehend vorteilhaft, dass eine naturgetreue räumliche Wiedergabe von häufig auftretenden Schallobjekten über große Hörbereiche in Echtzeit mit Hilfe eines vergleichsweise nicht sehr rechenintensiven Rechenverfahrens erreicht werden kann.
  • Ferner kann ein Partikelaudiosignal pro beschriebenem Algorithmus vervielfältigt werden. Durch die eingebaute positionsabhängige Filterung wird es ferner bevorzugt, auch eine Verfremdung des Partikels zu erzielen. Ferner können verschiedene Algorithmen parallel genutzt werden, um unterschiedliche Partikel zu generieren, sodass ein effizientes und naturgetreues Schallszenario erzeugt wird.
  • Das erfindungsgemäße Konzept kann sowohl als Effektgerät für Wellenfeldsynthese-Systeme als auch für beliebige Surround-Wiedergabesysteme eingesetzt werden.
  • Abweichend von dem vorstehend beschriebenen zweidimensionalen System wird es für das dreidimensionale System bevorzugt, die flächeninformationen durch Volumeninformationen zu ersetzen. Positionen sind dann dreidimensionale Raumpositionen. Die Partikeldichte wird dann zu einer Größe Partikel/(Zeit Volumen)
  • Das erfindungsgemäße Konzept ist ferner nicht auf Wellenfeldsysteme zweidimensionaler Natur beschränkt. Auch echte dreidimensionale Systeme wie Ambisonics können mit veränderten Koeffizienten (Scale, Delay, Filter-Impulsantwort) im Einzelimpulsantwortgenerator 16 (Fig. 1) angesteuert werden. "Halbe" zweidimensionale Systeme wie sämtliche X.Y-Formate können ebenso über veränderte Koeffizienten angesteuert werden.
  • Die FFT-Faltung in der Filtervorrichtung mit einstellbarer Impulsantwort 21 (Fig. 1) kann mit allen existierenden Optimierungsverfahren (halbe Blocklänge, blockweise Zerlegung der Impulsantwort) rechengünstig gestaltet werden. Beispielsweise wird auf William H. Press, et al., "Numerical Receipts in C", 1998, Cambridge University Press, verwiesen.
  • Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung des Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.

Claims (13)

  1. Vorrichtung zum Erzeugen eines Lautsprechersignals für einen Lautsprecherkanal, der einem Lautsprecher zugeordnet ist, der in einer Wiedergabeumgebung an einer Lautsprecherposition einer Mehrzahl von Lautsprecherpositionen anbringbar ist, mit folgenden Merkmalen:
    einer Einrichtung (12) zum Liefern eines Audiosignals für eine Audioquelle, die an verschiedenen Auftrittspositionen und zu verschiedenen Zeiten in einer Audioszene auftreten soll;
    einem Positionsgenerator (14) zum Bereitstellen einer Mehrzahl von Auftrittspositionen, an denen die Audioquelle auftreten soll;
    einem Zeitgenerator (18) zum Bereitstellen von Auftrittszeiten, zu denen die Audioquelle auftreten soll, wobei einer Auftrittsposition eine Auftrittszeit zugeordnet ist;
    einem Generator (16) zum Bereitstellen von Informationen über Einzelimpulsantworten für jede Auftrittsposition der Mehrzahl von Auftrittspositionen für einen Lautsprecherkanal basierend auf den Auftrittspositionen und Informationen über den Lautsprecherkanal;
    einem Impulsantwortkombinierer (20) zum Kombinieren der Informationen über die Einzelimpulsantworten gemäß den Auftrittszeiten, um Kombinationsimpulsantwortinformationen für den Lautsprecherkanal zu erhalten; und
    ein Filter (21) zum Filtern des Audiosignals unter Verwendung der Kombinationsimpulsantwortinformationen, um ein Lautsprechersignal für den Lautsprecherkanal zu erhalten, das die Audioquelle, die an verschiedenen Auftrittspositionen und zu verschiedenen Zeiten in der Audioszene auftritt, darstellt.
  2. Vorrichtung nach Anspruch 1, bei der der Positionsgenerator (14) einen Zufallsgenerator umfasst, um zufällige Auftrittspositionen aus einem Vorrat an möglichen Auftrittspositionen zu liefern.
  3. Vorrichtung nach Anspruch 1 oder 2, bei der der Zeitgenerator (18) ausgebildet ist, um die Auftrittszeiten abhängig von einer vorgegebenen Partikeldichte einzustellen, so dass in einem Zeitfenster eine durch die Partikeldichte vorgegebene Menge von Auftrittszeiten bereitgestellt wird.
  4. Vorrichtung nach Anspruch 3, bei der der Generator (16) ausgebildet ist, um auf eine vorbestimmte Tabelle zuzugreifen und abhängig von der Auftrittsposition und dem Lautsprecherkanal die Informationen über die Einzelimpulsantworten zu ermitteln.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der der Generator (16) ausgebildet ist, um einen Skalierungsfaktor und eine Verzögerung zu liefern, welche von der Auftrittsposition abhängen.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der der Generator (16) ausgebildet ist,
    um einen Skalierungsfaktor und eine Verzögerung basierend auf einer Auftrittsposition zu ermitteln,
    um eine zusätzliche Impulsantwort, die einem Auftreten der Audioquelle zugeordnet ist, zu ermitteln (16b), und
    um die zusätzliche Impulsantwort mit dem Skalierungsfaktor zu gewichten (16c), um die Informationen über die Einzelimpulsantworten zu erhalten.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der der Impulsantwortkombinierer (20) ausgebildet ist, um abhängig von den Auftrittszeiten die Informationen über die Einzelimpulsantworten zeitlich verschoben aufzuaddieren, um die Kombinationsimpulsantwortinformationen zu erhalten.
  8. Vorrichtung nach Anspruch 6, bei der der Impulsantwortkombinierer ausgebildet ist, um abhängig von den Auftrittszeiten und der Verzögerung die Informationen über die Einzelimpulsantworten zeitlich verschoben aufzuaddieren, um die Kombinationsimpulsantwortinformationen zu erhalten.
  9. Vorrichtung nach Anspruch 6,
    bei der der Generator (16) ausgebildet ist, um die zusätzliche Impulsantwort abhängig von der Auftrittsposition zu wählen (16b).
  10. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der die Einrichtung (12) zum Liefern eines Audiosignals ausgebildet ist, um ein Audiosignal für eine Audioquelle zu liefern, die in einer Audioszene zufällig oder quasi-zufällig auftritt.
  11. Vorrichtung nach einem der vorhergehenden Ansprüche, die ferner folgende Merkmale aufweist:
    eine Einrichtung (32) zum Erzeugen eines Komponentensignals für ein Audioobjekt basierend auf einer virtuellen Position des Audioobjekts, einem Audiosignal, das dem Audioobjekt zugeordnet ist, und auf Informationen über den Lautsprecherkanal; und
    einem Überlagerer (30) zum Überlagern des Komponentensignals und des Lautsprechersignals, um ein Gesamtlautsprechersignal für den Lautsprecherkanal zu erhalten.
  12. Verfahren zum Erzeugen eines Lautsprechersignals für einen Lautsprecherkanal, der einem Lautsprecher zugeordnet ist, der in einer Wiedergabeumgebung an einer Lautsprecherposition einer Mehrzahl von Lautsprecherpositionen anbringbar ist, mit folgenden Schritten:
    Liefern (12) eines Audiosignals für eine Audioquelle, die an verschiedenen Auftrittspositionen und zu verschiedenen Zeiten in einer Audioszene auftreten soll;
    Bereitstellen (14) einer Mehrzahl von Auftrittspositionen, an denen die Audioquelle auftreten soll;
    Bereitstellen (18) von Auftrittszeiten, zu denen die Audioquelle auftreten soll, wobei einer Auftrittsposition eine Auftrittszeit zugeordnet ist;
    Erzeugen (16) von Informationen über Einzelimpulsantworten für jede Auftrittsposition der Mehrzahl von Auftrittspositionen für einen Lautsprecherkanal basierend auf den Auftrittspositionen und Informationen über den Lautsprecherkanal;
    Kombinieren (20) der Informationen über die Einzelimpulsantworten gemäß den Auftrittszeiten, um Kombinationsimpulsantwortinformationen für den Lautsprecherkanal zu erhalten; und
    Filtern (21) des Audiosignals unter Verwendung der Kombinationsimpulsantwortinformationen, um ein Lautsprechersignal für den Lautsprecherkanal zu erhalten, das die Audioquelle, die an verschiedenen Auftrittspositionen und zu verschiedenen Zeiten in der Audioszene auftritt, darstellt.
  13. Computer-Programm mit einem Programmcode zum Durchführen des Verfahrens gemäß Patentanspruch 12, wenn das Computer-Programm auf einem Rechner abläuft.
EP06754040A 2005-06-16 2006-06-01 Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle Expired - Fee Related EP1880577B1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005027978A DE102005027978A1 (de) 2005-06-16 2005-06-16 Vorrichtung und Verfahren zum Erzeugen eines Lautsprechersignals aufgrund einer zufällig auftretenden Audioquelle
PCT/EP2006/005233 WO2006133812A1 (de) 2005-06-16 2006-06-01 Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle

Publications (2)

Publication Number Publication Date
EP1880577A1 EP1880577A1 (de) 2008-01-23
EP1880577B1 true EP1880577B1 (de) 2009-10-21

Family

ID=36791607

Family Applications (1)

Application Number Title Priority Date Filing Date
EP06754040A Expired - Fee Related EP1880577B1 (de) 2005-06-16 2006-06-01 Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle

Country Status (6)

Country Link
US (1) US8090126B2 (de)
EP (1) EP1880577B1 (de)
JP (1) JP4553963B2 (de)
CN (1) CN100589656C (de)
DE (2) DE102005027978A1 (de)
WO (1) WO2006133812A1 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
JP4736094B2 (ja) * 2007-01-18 2011-07-27 独立行政法人産業技術総合研究所 音データ生成装置およびプログラム
US8620003B2 (en) * 2008-01-07 2013-12-31 Robert Katz Embedded audio system in distributed acoustic sources
WO2011119401A2 (en) * 2010-03-23 2011-09-29 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
EP2630640A4 (de) * 2010-10-21 2018-04-11 Acoustic 3d Holdings Limited Akustik-diffusor
DE102011082310A1 (de) 2011-09-07 2013-03-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und elektroakustisches System zur Nachhallzeitverlängerung
JP6254864B2 (ja) * 2014-02-05 2017-12-27 日本放送協会 複数音源配置装置、複数音源配置方法
US11010409B1 (en) * 2016-03-29 2021-05-18 EMC IP Holding Company LLC Multi-streaming with synthetic replication
GB201719854D0 (en) * 2017-11-29 2018-01-10 Univ London Queen Mary Sound effect synthesis
US10764701B2 (en) * 2018-07-30 2020-09-01 Plantronics, Inc. Spatial audio system for playing location-aware dynamic content

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6728664B1 (en) 1999-12-22 2004-04-27 Hesham Fouad Synthesis of sonic environments
US7167571B2 (en) * 2002-03-04 2007-01-23 Lenovo Singapore Pte. Ltd Automatic audio adjustment system based upon a user's auditory profile
DE10321980B4 (de) 2003-05-15 2005-10-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
DE10328335B4 (de) * 2003-06-24 2005-07-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
DE10344638A1 (de) * 2003-08-04 2005-03-10 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Erzeugen, Speichern oder Bearbeiten einer Audiodarstellung einer Audioszene

Also Published As

Publication number Publication date
DE102005027978A1 (de) 2006-12-28
JP2008547255A (ja) 2008-12-25
US8090126B2 (en) 2012-01-03
DE502006005193D1 (de) 2009-12-03
WO2006133812A1 (de) 2006-12-21
CN100589656C (zh) 2010-02-10
JP4553963B2 (ja) 2010-09-29
EP1880577A1 (de) 2008-01-23
CN101199235A (zh) 2008-06-11
US20080181438A1 (en) 2008-07-31

Similar Documents

Publication Publication Date Title
EP1880577B1 (de) Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle
EP2080411B1 (de) Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
DE10328335B4 (de) Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
EP3005732B1 (de) Vorrichtung und verfahren zur raumselektiven audiowiedergabe
WO2005060307A1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
EP1525776B1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
DE102012017296B4 (de) Erzeugung von Mehrkanalton aus Stereo-Audiosignalen
DE10321980B4 (de) Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
EP2754151B1 (de) Vorrichtung, verfahren und elektroakustisches system zur nachhallzeitverlängerung
DE102005001395B4 (de) Verfahren und Vorrichtung zur Transformation des frühen Schallfeldes
EP1972181A1 (de) Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
DE10254470A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks
EP2357854A1 (de) Verfahren und Vorrichtung zur Erzeugung individuell anpassbarer binauraler Audiosignale
DE102011108788A1 (de) Verfahren zur Verarbeitung eines Audiosignals, Audiowiedergabesystem und Verarbeitungseinheit zur Bearbeitung von Audiosignalen
EP1900250B1 (de) Elektroakustisches verfahren

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20071212

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

17Q First examination report despatched

Effective date: 20080418

RIN1 Information on inventor provided before grant (corrected)

Inventor name: RODIGAST, RENE

Inventor name: BECKINGER, MICHAEL

RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): DE FR GB

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REF Corresponds to:

Ref document number: 502006005193

Country of ref document: DE

Date of ref document: 20091203

Kind code of ref document: P

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

26N No opposition filed

Effective date: 20100722

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: FR

Payment date: 20190625

Year of fee payment: 14

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20190624

Year of fee payment: 14

Ref country code: DE

Payment date: 20190624

Year of fee payment: 14

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502006005193

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20200601

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200630

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20200601

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210101