WO2004047485A1 - Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals - Google Patents

Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals Download PDF

Info

Publication number
WO2004047485A1
WO2004047485A1 PCT/EP2003/013110 EP0313110W WO2004047485A1 WO 2004047485 A1 WO2004047485 A1 WO 2004047485A1 EP 0313110 W EP0313110 W EP 0313110W WO 2004047485 A1 WO2004047485 A1 WO 2004047485A1
Authority
WO
WIPO (PCT)
Prior art keywords
audio
loudspeaker
playback
module
wave field
Prior art date
Application number
PCT/EP2003/013110
Other languages
English (en)
French (fr)
Inventor
Frank Melchior
Thomas Röder
Michael Beckinger
Sandra Brix
Thomas Sporer
Haymo Kutschbach
Berthold Schlenker
Carsten Land
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to JP2004552700A priority Critical patent/JP4620468B2/ja
Priority to DE50303069T priority patent/DE50303069D1/de
Priority to EP03782222A priority patent/EP1576847B1/de
Publication of WO2004047485A1 publication Critical patent/WO2004047485A1/de
Priority to US11/099,156 priority patent/US7706544B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/403Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers loud-speakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems

Definitions

  • the present invention relates to audio playback systems and, more particularly, to practical audio playback systems for variable size playback rooms such as cinemas, the audio playback systems being based on wave field synthesis.
  • wave field synthesis Due to the enormous demands of this method on computer performance and transmission rates, wave field synthesis has so far only rarely been used in practice. It is only the advances in the areas of microprocessor technology and audio coding that allow this technology to be used in concrete applications. The first products in the professional sector are expected next year. In a few years, the first wave field synthesis applications for the consumer sector will also be launched.
  • Every point that is captured by a wave is the starting point of an elementary wave that propagates in a spherical or circular manner.
  • a large number of loudspeakers that are arranged next to each other can be used to simulate any shape of an incoming wavefront.
  • the audio signals of each loudspeaker must be fed with a time delay and amplitude scaling in such a way that the radiated sound fields of the individual loudspeakers overlap correctly. If there are several sound sources, the contribution to each source becomes Speakers calculated separately and the resulting signals added. If the sources to be reproduced are in a room with reflecting walls, then reflections must also be reproduced as additional sources via the loudspeaker array. The effort involved in the calculation therefore depends heavily on the number of sound sources, the reflection properties of the recording room and the number of speakers.
  • the advantage of this technique lies in the fact that a natural spatial sound impression is possible over a large area of the playback room.
  • the direction and distance of sound sources are reproduced very precisely.
  • virtual sound sources can even be positioned between the real speaker array and the listener.
  • wave field synthesis works well for environments whose properties are known, irregularities do occur when the nature changes or when the wave field synthesis is carried out on the basis of an environment condition that does not match the actual nature of the environment.
  • An environmental condition can be described by the impulse response of the environment.
  • Wave field synthesis thus enables correct mapping of virtual sound sources over a large reproduction range. At the same time, it offers the sound engineer and sound engineer new technical and creative potential when creating complex soundscapes.
  • Wave field synthesis (WFS or sound field synthesis), as developed at the TU Delft in the late 1980s, represents a holographic approach to sound reproduction.
  • the Kirchhoff-Helmholtz integral serves as the basis for this. This says that any sound fields can be generated within a closed volume by means of a distribution of monopole and dipole sound sources (loudspeaker arrays) on the surface of this volume. Details can be found in MM Boone, ENG Verheijen, PF v.
  • a synthesis signal for each loudspeaker of the loudspeaker array is calculated from an audio signal which emits a virtual source at a virtual position, the synthesis signals being designed in terms of amplitude and phase in such a way that a wave resulting from the superimposition of the individual the loudspeaker output in the loudspeaker array results in the sound wave that corresponds to the wave that would come from the virtual source at the virtual position if this virtual source at the virtual position were a real source with a real position.
  • synthesis signals there are multiple virtual sources in different virtual locations.
  • the calculation of the synthesis signals is carried out for each virtual source at each virtual position, so that typically one virtual source results in synthesis signals for several loudspeakers. Seen from a loudspeaker, this loudspeaker thus receives several synthesis signals that go back to different virtual sources. An overlay of these sources, which is possible due to the linear superposition principle, results then the playback signal actually sent from the speaker.
  • the fully rendered and analog-to-digital converted playback signals for the individual loudspeakers could, for example, be transmitted from the wave field synthesis via two-wire lines.
  • Central unit can be transmitted to the individual speakers. This would have the advantage that it is almost guaranteed that all loudspeakers work synchronously, so that no further measures would be necessary for synchronization purposes.
  • the wave field synthesis central unit could only ever be manufactured for a special reproduction room or for reproduction with a fixed number of loudspeakers.
  • a separate wave field synthesis central unit can be built for each playback room, which is not acceptable due to the individual production in terms of price.
  • a maximally equipped wave field synthesis central unit could be set up, which is controllable with regard to the connectable loudspeakers, i.e. with regard to the number of analog signal outputs, but which includes internal computing processors which is designed for the maximum number of analog outputs, i.e. connectable loudspeakers.
  • Such a system would result in audio reproducing systems for smaller display rooms also having almost the same price as audio reproducing systems for very large display rooms, which should not be acceptable for operators of small display rooms.
  • the medium to small display rooms are of interest to providers of audio display systems, with the "smallest" display rooms, which represent, for example, domestic living rooms or smaller restaurants, also being mentioned here.
  • the object of the present invention is to provide an audio reproduction concept which has a higher market acceptance.
  • the present invention is based on the knowledge that audio playback systems which are to achieve market acceptance must be scalable.
  • scalability must not only take place in terms of the computing power provided, but must also be reflected in the price of the audio playback system impact.
  • this means that an audio playback system for a large playback space may cost more than an audio playback system for a small playback space.
  • an audio playback system for a small playback room must cost significantly less than an audio playback system for a large playback room.
  • the price differences were insignificant, since the price differences were only due to the number of individual loudspeakers, which, however, was offered at low cost due to the fact that a large number of loudspeakers were provided and due to novel integration concepts into the structure that included the reproduction space can be.
  • the audio playback system is divided into a central wave field synthesis module and into many individual loudspeaker modules that are decentrally connected to the central wave field synthesis module.
  • the central wave field synthesis module receives an audio signal with a plurality of audio tracks and on the one hand calculates the synthesis signals and on the other hand the channel information for the channels from the virtual positions to the real speaker positions.
  • the central wave field synthesis module is further configured to supply each speaker with one or more synthesis signals that are to be reproduced by the speaker in question, and channel information for the audio channels from the virtual positions of the virtual sources, from which the one or more synthesis signals originate, to the affected one Deliver speakers.
  • a considerable data rate transmission limitation can already be achieved here, since experience shows that it is very rare for every loudspeaker to receive synthesis signals whose Energy content is greater than a certain threshold.
  • the central wave field synthesis module according to the invention thus already has the option of supplying only the synthesis signals to a decentralized loudspeaker module and also only the channel information for the synthesis signals which are important for the individual loudspeakers.
  • the loudspeaker modules according to the invention are decentralized and directly coupled to the loudspeaker or preferably arranged in close proximity to the loudspeaker.
  • Each loudspeaker module comprises a receiver for receiving the one or 'more synthesis signals for the respective loudspeaker, as well as the synthesis signals associated with channel information.
  • each loudspeaker module comprises a rendering device for calculating a reproduction signal for the loudspeaker using the synthesis signals and the channel information for the supplied synthesis signals.
  • each loudspeaker module also comprises a signal processing device with possibly a digital amplifier, a further digital signal processing device and finally a digital-to-analog converter for generating an analog loudspeaker signal which is to be supplied to the loudspeaker concerned, on the basis of the reproduction signal.
  • a plurality of transmission links are provided for connecting the central wave field synthesis module and the decentralized loudspeaker modules, one transmission link each extending from the central wave field synthesis module to the individual loudspeaker.
  • the operation of the rendering is very computationally expensive, which, with regard to the necessary circuit hardware in the form of, for example, a DSP or a hard-wired circuit, contributes considerably to the costs, in particular when considering the multiplier which is provided for each individual loudspeaker.
  • the rendering device works using channel impulse responses as channel information and thus performs computationally intensive convolution, which can either be carried out directly in the time domain or is carried out in the frequency domain, which requires transformations in the frequency domain and transformations from the frequency domain, which are required together with the actual multiplication operation in the frequency domain lead to considerable effort.
  • a rendering unit does not only have to render a single synthesis signal, but always a large number of synthesis signals, which normally corresponds to the number of virtual sources.
  • the concept according to the invention means that operations which can be carried out in a decentralized manner are shifted out of the central wave field synthesis module into the decentralized loudspeaker modules in such a way that, in the best case, only the operations in the central wave field synthesis module which are equally important for all loudspeakers are carried out during all operations that affect only one loudspeaker, or several loudspeakers that are connected to a loudspeaker module, are also implemented decentrally in the loudspeaker module.
  • the costs for the central wave synthesis module can thus be considerably reduced, but at the expense of the loudspeaker modules, the price of which can no longer be neglected, due to the operation of the audio rendering which is mainly carried out in the loudspeaker modules.
  • the audio reproduction system according to the invention is now scalable both in terms of performance and in terms of price. This opens up the possibility of offering a central wave field synthesis module for a large number of display rooms at a reduced price, such that the costs for the overall system, which result from the costs for the central unit and the decentralized loudspeaker modules, now correspond strongly to the number of loudspeakers set up and thus the size of the playback room.
  • an operator of a large display room will still have to pay a certain price for a display system for his large display room.
  • an operator of a smaller playback room will be able to purchase an audio playback system at a significantly lower price, since the number of loudspeakers and thus the number of complex and costly loudspeaker modules is considerably reduced compared to the large playback room.
  • the audio playback system according to the invention thus makes it possible to offer audio playback systems for smaller playback rooms at considerably reduced prices compared to large playback rooms, so that market acceptance is hoped for due to the reduced price in the very competitive market of audio / video components.
  • the central wave field synthesis unit is designed to be able to process cinema films recorded in the conventional audio format for cinema films, conventional recording formats being, for example, the 5.1 surround format or 7.1. Format or 10.2 format.
  • conventional recording formats being, for example, the 5.1 surround format or 7.1. Format or 10.2 format.
  • a film includes six audio tracks, ie audio tracks for the "left rear", “right rear”, “front left”, “front right” and “front center” channels, as well as the bass channel (subwoofer channel ).
  • a playback of such a movie with respect to audio technology conventional in the audio playback system according to the invention can be achieved in that the Audio tracks can be placed as virtual sources in virtual positions, which can be selected according to the needs of the sound engineer or the operator of the playback room.
  • FIG. 1 shows a conceptual diagram of the audio reproduction system according to the invention
  • FIG. 2 shows a block diagram of the central wave field synthesis module according to the invention
  • FIG. 3 shows a block diagram of a decentralized loudspeaker module according to the invention
  • Fig. 4 is a block diagram of a preferred embodiment
  • FIG. 5 shows a schematic diagram of a compatible reproduction with a large sweet spot
  • FIG. 6 shows a schematic diagram for the formation of a plurality of synthesis signals for a loudspeaker, each of which is to be supplied with channel information in order to obtain the playback signal for the loudspeaker LSi; and
  • Fig. 7 shows a schematic diagram of a channel from a virtual source to a real loudspeaker, showing the quantities that can have an influence on the channel.
  • the audio playback system is basically divided into two parts, as shown in FIG. 1.
  • One part is the central wave field synthesis module 10.
  • the other part is composed of individual loudspeaker modules 12a, 12b, 12c, 12d, 12e, which are connected to actual physical loudspeakers 14a, 14b, 14c, 14d, 14e in the manner shown in FIG. 1 is shown.
  • the number of loudspeakers 14a-14e is in the range above 50 and typically even well above 100 in typical applications. If each speaker is assigned its own speaker module, the corresponding number of speaker modules is also required. Depending on the application, however, it is preferred to address a small group of loudspeakers next to one another from a loudspeaker module.
  • a loudspeaker module which is connected to four loudspeakers, for example, feeds the four loudspeakers with the same playback signal, or whether corresponding different synthesis signals are calculated for the four loudspeakers, so that such a loudspeaker module actually consists of there are several individual loudspeaker modules, but these are physically combined in one unit.
  • each transmission path 16a-leee there is a separate transmission path 16a-leee between the wave field synthesis module 10 and each individual loudspeaker module 12a-12e, each transmission path being coupled to the central wave field synthesis module and a separate loudspeaker module.
  • a serial transmission format that delivers a high data rate is preferred, such as a so-called Firewire transmission format or a USB data format. Data transfer rates of over 100 megabits per second are advantageous.
  • the data stream that is transmitted from the wave field synthesis module 10 to a loudspeaker module is accordingly formatted in accordance with the selected data format in the wave field synthesis module and with a
  • synchronization information which is provided in conventional serial data formats.
  • This synchronization information is extracted by the individual loudspeaker modules from the data stream and used to analyze the individual loudspeaker modules with regard to their reproduction, i.e. ultimately to the analog-digital conversion for obtaining the analog loudspeaker signal and the sampling (resampling) provided for this purpose. to synchronize.
  • the central wave field synthesis module operate as a master and that all loudspeaker modules operate as clients, with the individual data streams via the various transmission links 16a-16e all receiving the same synchronization information from the central module 10.
  • the central wave field synthesis module initially comprises an input device 20 which is basically designed to receive an audio signal at an input, the audio signal having a plurality of audio tracks, each audio track being assigned an audio source position.
  • the audio source position is an indication of the position of a loudspeaker with respect to a listener in the playback room in accordance with a standardized audio format, such as, for. B. 5.1 to achieve a compatible playback.
  • the audio signal can have a larger number of audio tracks, which are already available as signals suitable for wave field synthesis and represent audio sources or audio objects in a real recording position, which are reproduced with respect to the audio signal reproduction as virtual sources in the playback space using the wave field synthesis.
  • the input device 20 is also used as the main control unit, which advantageously has further functionalities. In particular, it has the functionality of a decoding module, as is usually used in cinemas. As an alternative or in addition, the input device 20 is also designed as a DVD decoder which supplies the separate audio channels or audio tracks. Alternatively, the playback device 20 is also designed as an MPEG-4 decoding module, which already provides audio tracks 21 and corresponding audio source information 22 intended for wave field synthesis.
  • the audio tracks 21 each relate to audio signals from audio objects in a recording setting, to the position of the audio objects in the recording setting, to properties of audio objects, in particular with regard to the size of the audio object or the density with regard to the acoustic properties of the audio object ,
  • the information about the recording room or the recording environment should serve to give the listener not only a visual but also an audio impression of the recording situation.
  • the visitor should also notice from the reproduced sound whether, for example, a recording scene of a movie is taking place outdoors or e.g. B. in a small space, such as a submarine. While a recording scenario in the open air delivers relatively "dry" audio signals because the recording environment shows hardly any or no reflections, this situation will be completely different in a submarine, for example.
  • the central wave field synthesis module further comprises a device 24 for determining channel information on the one hand and wave field synthesis signals on the other hand for the individual loudspeakers.
  • a device 25 for converting the audio source positions 22 into virtual positions for the wave field synthesis is also provided.
  • the device 24 is designed to determine audio channel information for each audio channel from a virtual position to a loudspeaker position, the virtual position from the
  • Audio source position associated with the audio track depends (means 25) so that for each channel from each virtual position to each speaker
  • Audio channel information is available. Furthermore, the
  • Device 24 is configured to use the
  • the central wave field synthesis module in FIG. 2 further comprises means 26 for supplying synthesis signals to one or more loudspeakers.
  • the device 26 is also designed to transmit channel information for the transmitted synthesis information from the central wave field synthesis module via the corresponding transmission links to the individual loudspeaker modules, so that audio rendering can take place there.
  • the device 24 also supplies channel information for each synthesis signal or interpolates from calculated channel information and the device 26 for Provides so that the same can initiate a transmission to the individual speaker modules.
  • the device 26 is preferably designed to filter out insignificant synthesis signals and thus neither to transmit the insignificant synthesis signals nor the associated channel information in order to save data transmission capacities. So often occurs the case that a virtual source leads to significant synthesis signals only for some speakers, while for all other speakers in the speaker array synthesis signals can also be calculated based on the theory of wave field synthesis. B. are relatively small in terms of their performance in a certain period of time and can therefore be neglected in terms of a reduced amount of data transfer.
  • the device 24 includes functionalities to be used to preprocess the audio signals.
  • the device 24 controls the individual loudspeaker modules in particular in such a way that it either directly or in conjunction with the device 26 introduces synchronization information into the data streams transmitted to the individual loudspeaker modules and thus achieves central synchronization of all loudspeaker modules with the central wave field synthesis module.
  • the central wave field synthesis module is designed to carry out all processing operations that are the same for all reproduction channels, while according to the inventive concept, the processing operations that are different for the individual loudspeakers or the individual reproduction channels are carried out decentrally.
  • the device 24 is also designed to simulate wave field synthesis information for stereo Signals, 5.1 signals, 7.2 signals, 10.2 signals, etc. with a view to compatible playback.
  • the standard positions of loudspeakers with respect to a playback space for the standardized audio format are used as audio source positions.
  • FIG. 5 shows a playback room 50, a speaker array 52 that extends around the playback room, and a plurality of virtual sources 53a-53e that, as can be seen in FIG. 5, are positioned at virtual positions outside of the Playroom 50 are located.
  • the device 24 is designed in connection with the device 25 from FIG. 1 in order to calculate virtual positions which can be controlled manually from the audio source information, that is to say the standard position information for such a 5.1 signal, for example.
  • the virtual positions e.g. B. to infinity
  • the speaker array 52 sonicates the playback room 50 with plane waves.
  • the so-called sweet spot i.e. the area in a reproduction room in which an optimal sound impression is obtained, is considerably enlarged compared to a common situation in which real 5.1 speakers are placed in the reproduction room.
  • the virtual sources can also be placed at finite virtual positions and modeled as point sources, this option having the advantage that the sound impression has a more pleasant effect on the cinema viewer / listener.
  • Flat waves have the property that the listener has the impression that he is sitting in a very large room, which leads in particular to an unpleasant sensation when, for example, a submarine scene is currently taking place on the screen.
  • conventional films with, for example, 5.1 audio tracks have no information about acoustic Features of the recording setting include. In such a case, it is therefore preferred to find a compromise between the plane waves, that is to say the virtual sources at an infinite position or the virtual sources at a finite position.
  • the audio playback system also provides the possibility of varying the virtual positions of the virtual loudspeakers 53a-53e depending on the film scene. For example, if a scene is taking place outdoors, the speakers can be positioned indefinitely. On the other hand, if a scene takes place in a small room, the loudspeakers can be positioned closer to the playback room 50.
  • input device 20 is configured to sample the audio tracks associated with the video signal by a certain time "delay" before the video signals, such that after processing in the wave field synthesis module in the individual loudspeaker modules, the sound belonging to a point in time is sampled simultaneously with the video signal belonging to a point in time.
  • the negative “delay” must at least be dimensioned in such a way that sound and image are emitted in the audio reproduction system according to the invention in a manner that is associated with one another. If the negative delay is dimensioned somewhat larger, the signals can already be calculated and, for example, can be output from the loudspeaker modules to the loudspeakers by means of a corresponding synchronization signal which ensures the synchronism of image and sound.
  • Information about the playback room can either be determined on the basis of the geometrical nature of the playback room, or can be measured in the playback room using the loudspeakers and special microphone arrays, with control and evaluation for this being possible via an adaptation module 28 for the playback room.
  • the acoustic properties of the display room differ significantly from those when there are no people in the display room.
  • the adaptation module 28 for the reproduction room further comprises a microphone array which can be used to measure the properties of the reproduction. Furthermore, the adaptation module 28 for the reproduction space comprises algorithms to find the position of speaker arrays in the reproduction space. In addition, preprocessing of measurement results is carried out here in order to carry out an optimal inversion of the room and loudspeaker properties, the adaptation module 28 preferably being controlled by the device 24 for this purpose.
  • the adaptation module 28 for the playback room is only required for the system structure. However, if continuous adaptation to a changed situation in the playback room is desired, the adaptation module 28 can also be used continuously during operation.
  • the additional WFS information that is to say the properties of, for example, the audio objects and the properties of the recording space, are extracted from the input audio signal and via a WFS information line 29 fed to the device 24 so that this information can be taken into account in the channel information calculation.
  • the central WFS module is also designed to carry out preprocessing of the WFS-prepared audio signals.
  • the device 24 and / or the device 26 is intended to achieve the synchronization between image and sound, for which, as has been explained, time codes are introduced into the preferably serial data streams for the individual loudspeaker modules.
  • the channel information calculation device 24 is also responsible for driving the adaptation module 28 in order to control the measurement of the acoustic properties of the reproduction space, if desired, either before playback or during playback.
  • the multiplexer / transmission stage 26 is designed to insert synchronization information, which is generated either by the device 24, by the control device 20 or in the device 26 itself, into the data streams to the loudspeaker modules, to which those for the individual speakers required synthesis signals and necessary channel information are supplied.
  • the device 24 for calculating the channel information and for calculating the synthesis signals must also be provided with the speaker locations in the special reproduction room in order to calculate the individual synthesis signals and the individual channel information for the individual speakers. This is symbolically represented in FIG. 2 by a line 30.
  • the loudspeaker module first comprises a receiver / decoder block 31 in order to receive the data stream from the selection device and to extract associated channel information 31b and synchronization information 31c from the same synthesis signals 31a.
  • the loudspeaker module shown in Fig. 3 further includes, as a central unit, an audio rendering device 32 for calculating a playback signal for the speaker using the one or more synthesis signals and using the channel information associated with the synthesis signals.
  • a loudspeaker module comprises a signal processing device 33 with a digital / analog converter for generating an analog loudspeaker signal which is fed to the loudspeaker LSi 34 concerned in order to generate a sound signal.
  • the signal processing device 33 and in particular the resampler, which cooperates with the digital / analog converter, is supplied via the synchronization information (31c) extracted from the data stream by the receiver 31 in order to be synchronous to the central wave field synthesis module and thus synchronous to all other loudspeaker modules 24 of Fig. 1 calculated on the To overlay loudspeakers overlaid with channel information and channel signals.
  • the loudspeaker module shown in FIG. 3 is thus characterized by the combination of a digital receiver, a further signal processing device and a digital-to-analog converter, wherein in particular a digital amplifier can also be provided in the signal processing device 33.
  • a digital amplifier can also be provided in the signal processing device 33.
  • the signal can also be amplified after the digital / analog conversion, although digital amplification is preferred due to the more precise possibility of synchronization. It is further preferred to couple the loudspeaker 34 to the signal processing device 33 via a short analog line.
  • the corresponding lines of all loudspeakers have the same length or have length differences which are within a predetermined tolerance limit, since the synchronization is preferably on digital side is performed so that with very different line lengths between the loudspeaker modules and the loudspeaker a desynchronization could occur, which could already lead to audible artifacts or to a loss of the sound impression that is to be created by the wave field synthesis.
  • channel impulse responses in the time domain or in the frequency domain are transmitted as channel information.
  • the audio rendering device 32 is designed to carry out a convolution of the individual synthesis signals with the channel information assigned to the synthesis signals.
  • This convolution can actually be implemented as convolution in the time domain, or can be implemented in the Frequency range can be performed by multiplying the analysis signal in the frequency range with the channel transfer function.
  • FIG. 4 shows a preferred embodiment of the audio rendering device 32 and comprises for each synthesis signal S j i (t) a time-frequency conversion block 34a, 34b, 34c, and for each branch a multiplier 35a, 35b, 35c for multiplying the transformed a synthesis signal with the transform of a channel impulse response H j i (f), a summer 36 and a final frequency-time conversion device 37, which are connected as shown in FIG. 4.
  • the arrangement shown in Fig. 4 is characterized in that it is reduced in terms of processing effort by the summation of the synthesis signals, which are already acted on by the corresponding channel transmission functions, takes place in the frequency domain, so that for each speaker module regardless of the number the synthesis signals only a single frequency-time converter is available.
  • the time-frequency transformation of the synthesis signals s- ⁇ can be carried out completely in parallel, or, if there is sufficient time, also serial / parallel or completely serial.
  • the audio rendering device 32 shown in FIG. 3 is also designed to receive special program information from the central wave field synthesis module shown in FIG. 2.
  • the multiplexer / transmitter stage 26 has a special output in order to supply the program information to the loudspeaker modules.
  • the program information can also be multiplexed into the data stream with synthesis signals and channel information, although this is not absolutely necessary.
  • channel information is described as channel impulse responses and transmitted to the individual loudspeaker modules, it is preferred not to transmit the entire impulse response in the sense of a data rate saving, but rather only samples of the impulse response that lie in a front area of the impulse response, the envelope of which is still an amount has a threshold.
  • impulse responses typically have large values at small points in time and gradually take on smaller values and finally have a so-called "reverberation tail", which is important for the sound impression, but whose samples are no longer particularly large, and In this case, it is preferred not to transmit the reverberation tail, whose envelope is below the threshold value, on the basis of its sample values, but only to transmit base values for the envelope
  • That are required by the audio rendering device 32 are then generated according to the invention in that the audio rendering device generates a random sequence of zeros and ones, the amplitude of which is weighted for the envelope with the transmitted base values it is preferred to transfer only a few base values and to interpolate between the base values, and then use the interpolated envelope to weight the random 0/1 sequence.
  • the random 0/1 sequence is preferably implemented by positive voltage values for a "1" and negative voltage values for a "0".
  • the information that the audio rendering device receives channel information that is actual samples up to a certain value and then is only support values for the envelope is transmitted via the program information input shown in FIG. 3 or is fixed agreed.
  • the wave field synthesis module further comprises a WFS mixing console, not shown in FIG.
  • the procedure on which the generation of synthesis signals is based is discussed below with reference to FIG. 6.
  • a system with three virtual sources at three virtual positions 60, 61, 62 and a speaker LSi 63 at a real speaker position, which is known to the central WFS module, is considered.
  • the virtual positions of the virtual sources 60, 61, 62 are known to the central wave field synthesis module either from the fact that they are supplied in a WFS-processed input signal or from the fact that they are derived by means of audio source positions by the means 25 for calculating the virtual positions.
  • the synthesis signals s 2 ⁇ , s 2 ⁇ and s 3 i are the signals which the loudspeaker 63 must emit and which go back to the respective virtual positions 60, 61, 62. From this it can be seen that, as has been stated, each loudspeaker will emit the overlay of several synthesis signals.
  • a channel ji is also defined between each virtual position and each loudspeaker can be described by an impulse response, a transfer function or any other channel information, as shown with reference to FIG. 7. All desired properties can be packaged in the channel description, in order then to apply the channel information for the corresponding channel assigned to a synthesis signal to the synthesis signals which are calculated by the wave field synthesis module. If the channel information is given in the form of an impulse response that describes the channel, the loading is a convolution. If the signals are in the frequency range, the application is a multiplication. Alternative channel information can also be used depending on the embodiment.
  • FIG. 7 shows which information can be used to influence a channel 70 from a virtual source 71 to a real loudspeaker 72.
  • the virtual position of the virtual source 71 is included in the channel information, for example the channel impulse response.
  • Properties of the virtual source are also included, such as. B. size, density, etc. B. a small triangle must be described and modeled differently than a large timpani.
  • the properties of the recording space are included in the channel transmission function.
  • Further influencing components are a system distortion of the entire audio reproduction system, which, for example, contains loudspeaker distortions or non-idealities of the loudspeakers.
  • the channel information also includes information about the playback space in order to compensate for the acoustic properties of the playback space. If, for example, the reproduction room is known to have a wall opposite a loudspeaker that is reflecting and whose reflection is to be suppressed, however, the corresponding loudspeaker is underneath Taking this information into account is controlled in such a way that it contains a signal which is 180 degrees out of phase with the reflected signal and has a corresponding amplitude, so that an extinguishing reflection occurs and the wall becomes acoustically transparent, ie no longer for a listener due to the reflections is identifiable.
  • the channel information can also be used to set a specific target reproduction acoustics.
  • the method according to the invention for reproducing an audio signal can be implemented in hardware or in software.
  • the implementation can take place on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which can cooperate with a programmable computer system such that the method is carried out.
  • the invention thus also consists in a computer program product with program code stored on a machine-readable carrier for carrying out the method according to the invention when the computer program product runs on a computer.
  • the invention can thus be implemented as a computer program with a program code for carrying out the method if the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Stereophonic Arrangements (AREA)
  • Signal Processing Not Specific To The Method Of Recording And Reproducing (AREA)

Abstract

Ein Audiowiedergabesystem gliedert sich in ein zentrales Wellenfeldsynthesemodul (10) und eine Vielzahl von dezentral angeordneten Lautsprechermodulen (12a-12e) auf, wobei im zentralen Wellenfeldsynthesemodul Synthesesignale für die einzelnen Lautsprecher sowie entsprechende Kanalinformationen, die den Synthesesignalen zugeordnet sind, berechnet werden. Die Synthesesignale für einen Lautsprecher samt zugehöriger Kanalinformationen werden dann über eine Übertragungsstrecke (16a-16e) zu entsprechenden Lautsprechermodulen übertragen, wobei jedes Lautsprechermodul die Synthesesignale und zugehörige Kanalinformationen erhält, die für den Lautsprecher gedacht sind, der dem Lautsprechermodul zugeordnet ist. In den Lautsprechermodulen findet ein dezentrales Audio-Rendering und Digital/Analog-Wandeln statt, um die tatsächlichen analogen Lautsprechersignale dezentral in räumlicher Nähe zu jedem Lautsprecher zu erzeugen. Die Aufteilung in ein zentrales Wellenfeldsynthesemodul und eine Vielzahl von dezentralen Lautsprechermodulen führt dazu, daß Audiowiedergabesysteme erzeugt werden können, die hinsichtlich des Preises skalierbar sind, um für in ihrer Größe stark variierende insbesondere Kinowiedergaberäume preislich skalierbare Systeme unterschiedlicher Größe anbieten zu können.

Description

Audiowiedergabesystem und Verf hren zum Wiedergeben eines Audiosignals
Beschreibung
Die vorliegende Erfindung bezieht sich auf Audiowiedergabesysteme und insbesondere auf für die Praxis geeignete Audiowiedergabesysteme für Wiedergaberäume variabler Größe, wie beispielsweise Kinos, wobei die Audiowiedergabesysteme auf der Wellenfeldsynthese basieren.
Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektronik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen .
Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, daß sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits eingeprägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich. Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis), wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A.J.; de Vries, D. ; Vogel, P. : Acoustic control by Wave- field Synthesis. JASA 93, 1993).
Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsynthese bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden nächstes Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese-Anwendungen für den Konsumerbereich auf den Markt kommen.
Die Grundidee von WFS basiert auf der Anwendung des Huygens' sehen Prinzips der Wellentheorie:
Jeder Punkt, der von einer Welle erfaßt wird, ist Ausgangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray) , jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzögerung und Amplitudenskalierung so gespeist werden, daß sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. Befinden sich die wiederzugebenden Quellen in einem Raum mit reflektierenden Wänden, dann müssen auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Reflexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.
Der Vorteil dieser Technik liegt im Besonderen darin, daß ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.
Eine Umgebungsbeschaffenheit kann durch die Impulsantwort der Umgebung beschrieben werden.
Dies wird anhand des nachfolgenden Beispiels näher dargelegt. Es wird davon ausgegangen, daß ein Lautsprecher ein Schallsignal gegen eine Wand aussendet, deren Reflexion unerwünscht ist. Für dieses einfache Beispiel würde die Raumkompensation unter Verwendung der Wellenfeldsynthese darin bestehen, daß zunächst die Reflexion dieser Wand bestimmt wird, um zu ermitteln, wann ein Schallsignal, das von der Wand reflektiert worden ist, wieder beim Lautsprecher ankommt, und welche Amplitude dieses reflektierte Schallsignal hat. Wenn die Reflexion von dieser Wand unerwünscht ist, so besteht mit der Wellenfeldsynthese die Möglichkeit, die Reflexion von dieser Wand zu eliminieren, indem dem Lautsprecher ein zu dem Reflexionssignal gegenphasiges Signal mit entsprechender Amplitude zusätzlich zum ursprünglichen Audiosignal eingeprägt wird, so daß die hinlaufende Kompensationswelle die Reflexionswelle auslöscht, derart, daß die Reflexion von dieser Wand in der Umgebung, die betrachtet wird, eliminiert ist. Dies kann dadurch geschehen, daß zunächst die Impulsantwort der Umgebung berechnet wird und auf der Basis der Impulsantwort dieser Umgebung die Beschaffenheit und Position der Wand bestimmt wird, wobei die Wand als Spiegelquelle interpretiert wird, also als Schallquelle, die einen einfallenden Schall reflektiert .
Wird zunächst die Impulsantwort dieser Umgebung gemessen und wird dann das Kompensationssignal berechnet, das dem Audiosignal überlagert dem Lautsprecher eingeprägt werden muß, so wird eine Aufhebung der Reflexion von dieser Wand stattfinden, derart, daß ein Hörer in dieser Umgebung schallmäßig den Eindruck hat, daß diese Wand überhaupt nicht existiert.
Entscheidend für eine optimale Kompensation der reflektierten Welle ist jedoch, daß die Impulsantwort des Raums genau bestimmt wird, damit keine Über- oder Unterkompensation auftritt.
Die Wellenfeldsynthese ermöglicht somit eine korrekte Abbildung von virtuellen Schallquellen über einen großen Wiedergabebereich. Gleichzeitig bietet sie dem Tonmeister und Toningenieur neues technisches und kreatives Potential bei der Erstellung auch komplexer Klanglandschaften. Die Wellenfeldsynthese (WFS oder auch Schallfeldsynthese) , wie sie Ende der 80-er Jahre an der TU Delft entwickelt wurde, stellt einen holographischen Ansatz der Schallwiedergabe dar. Als Grundlage hierfür dient das Kirchhoff-Helmholtz- Integral. Dieses besagt, daß beliebige Schallfelder innerhalb eines geschlossenen Volumens mittels einer Verteilung von Monopol- und Dipolschallquellen (Lautsprecherarrays) auf der Oberfläche dieses Volumens erzeugt werden können. Details hierzu finden sich in M.M. Boone, E.N.G. Verheijen, P.F. v. Toi, „Spatial Sound-Field Reproduction by Wave-Field Synthesis", Delft University of Technology Laboratory of Seismics and Acoustics, Journal of J. Audio Eng. Soc, Bd. 43, Nr. 12, Dezember 1995 und Diemer de Vries, „Sound Reinforcement by Wavefield Synthesis: Adaption of the Synthesis Operator to the Loudspeaker Directivity Characteristics", Delft University of Technology Laboratory of Seismics and Acoustics, Journal of J. Audio Eng. Soc, Bd. 44, Nr. 12, Dezember 1996.
Bei der Wellenfeldsynthese wird aus einem Audiosignal, das eine virtuelle Quelle an einer virtuellen Position aussendet, eine Synthesesignal für jeden Lautsprecher des Lautsprecherarrays berechnet, wobei die Synthesesignale derart hinsichtlich Amplitude und Phase gestaltet sind, daß eine Welle, die sich aus der Überlagerung der einzelnen durch die im Lautsprecherarray vorhandenen Lautsprecher ausgegebenen Schallwelle ergibt, der Welle entspricht, die von der virtuellen Quelle an der virtuellen Position herrühren würde, wenn diese virtuelle Quelle an der virtuellen Position eine reale Quelle mit einer realen Position wäre.
Typischerweise sind mehrere virtuelle Quellen an verschiedenen virtuellen Positionen vorhanden. Die Berechnung der Synthesesignale wird für jede virtuelle Quelle an jeder virtuellen Position durchgeführt, so daß typischerweise eine virtuelle Quelle in Synthesesignalen für mehrere Lautsprecher resultiert. Von einem Lautsprecher aus betrachtet empfängt dieser Lautsprecher somit mehrere Synthesesignale, die auf verschiedene virtuelle Quellen zurückgehen. Eine Überlagerung dieser Quellen, die aufgrund des linearen Superpositionsprinzips möglich ist, ergibt dann das von dem Lautsprecher tatsächlich ausgesendete Wiedergabesignal .
Die Möglichkeiten der Wellenfeldsynthese können um so besser ausgeschöpft werden, je größer die Lautsprecherarrays sind, d. h. um so mehr einzelne Lautsprecher bereitgestellt werden. Damit steigt jedoch auch die Rechenleistung, die eine Wellenfeldsyntheseeinheit vollbringen muß, da typischerweise auch Kanalinformationen berücksichtigt werden müssen. Dies bedeutet im einzelnen, daß von jeder virtuellen Quelle zu jedem Lautsprecher prinzipiell ein eigener Übertragungskanal vorhanden ist, und daß prinzipiell der Fall vorhanden sein kann, daß jede virtuelle Quelle zu einem Synthesesignal für jeden Lautsprecher führt, bzw. daß jeder Lautsprecher eine Anzahl von Synthesesignalen erhält, die gleich der Anzahl von virtuellen Quellen ist.
Wenn insbesondere bei Kinoanwendungen die Möglichkeiten der Wellenfeldsynthese dahingehend ausgeschöpft werden sollen, daß die virtuellen Quellen auch beweglich sein können, so ist zu erkennen, daß aufgrund der Berechnung der Synthesesignale, der Berechnung der Kanalinformationen und der Erzeugung der Wiedergabesignale durch Kombination der Kanalinformationen und der Synthesesignale ganz erhebliche Rechenleistungen zu bewältigen sind.
Darüber hinaus sei an dieser Stelle angemerkt, daß die Qualität der Audiowiedergabe mit der Anzahl der zur Verfügung gestellten Lautsprecher steigt. Dies bedeutet, daß die Audiowiedergabequalität um so besser und realistischer wird, um so mehr Lautsprecher in dem bzw. den Lautsprecherarrays vorhanden sind.
Im obigen Szenario könnten die fertig gerenderten und Analog-Digital-gewandelten Wiedergabesignale für die einzelnen Lautsprecher beispielsweise über Zweidrahtleitungen von der Wellenfeldsynthese- Zentraleinheit zu den einzelnen Lautsprechern übertragen werden. Dies hätte zwar den Vorteil, daß nahezu sichergestellt ist, daß alle Lautsprecher synchron arbeiten, so daß hier zu Synchronisationszwecken keine weiteren Maßnahmen erforderlich wären. Andererseits könnte die Wellenfeldsynthese-Zentraleinheit immer nur für einen speziellen Wiedergaberaum bzw. für eine Wiedergabe mit einer festgelegten Anzahl von Lautsprechern hergestellt werden. Dies bedeutet, daß für jeden Wiedergaberaum eine eigene Wellenfeldsynthese-Zentraleinheit gefertigt werden müßte, die ein erhebliches Maß an Rechenleistung zu vollbringen hat, da die Berechnung der Audiowiedergabesignale insbesondere im Hinblick auf viele Lautsprecher bzw. viele virtuelle Quellen zumindest teilweise parallel und in Echtzeit erfolgen muß.
Insbesondere im Hinblick auf Audiowiedergabesysteme, die für Kinos gedacht sind, existiert jedoch das Problem, daß die Wiedergaberäume in Kinos hinsichtlich ihrer Größe erheblich variieren. So haben Kinos manchmal einen sehr großen Kinosaal und/oder gleichzeitig mehrere kleine Kinosäle für Filme, die nicht einen derart hohen Zuschauerandrang erleben als Filme, die in großen Kinosälen gespielt werden sollen. So haben jedoch auch unterschiedliche Kinos unterschiedlich große Wiedergaberäume, die insbesondere dann, wenn an eine Audiowiedergabe nicht nur in Kinos sondern z. B. in Konzertsälen gedacht wird, möglicherweise bis zu einem Faktor 100 variieren können.
Um derart verschieden Audiowiedergaberäume mit einem Audiowiedergabesystem auf der Basis der Wellenfeldsynthese auszustatten, müßte z. B. für jeden Wiedergaberaum eine eigene Wellenfeldsynthese-Zentraleinheit gebaut werden, was aufgrund der Einzelproduktion im Hinblick auf den Preis nicht akzeptabel ist. Andererseits könnte eine maximal ausgestattete Wellenfeldsynthese-Zentraleinheit aufgebaut werden, die im Hinblick auf die anschließbaren Lautsprecher, also im Hinblick auf die Anzahl von Analogsignalausgängen steuerbar ist, jedoch intern Rechenprozessoren umfaßt, die für die maximale Anzahl von Analogausgängen, also verbindbaren Lautsprechern, ausgelegt ist.
Ein solches System würde dazu führen, daß auch Audiowiedergabesysteme für kleinere Wiedergaberäume nahezu denselben Preis mit sich bringen wie Audiowiedergabesysteme für sehr große Wiedergaberäume, was für die Betreiber von kleinen Wiedergaberäumen nicht akzeptabel sein dürfte. Insbesondere die mittleren bis kleinen Wiedergaberäume sind für Anbieter von Audiowiedergabesystemen interessant, wobei an dieser Stelle auch die „kleinsten" Wiedergaberäume erwähnt werden sollen, die z. B. häusliche Wohnzimmer oder kleinere Gaststätten darstellen.
Die vorstehend beschriebenen Möglichkeiten sind daher dahingehend nachteilhaft, daß eine durchgreifende Marktakzeptanz nicht unmittelbar zu erwarten ist.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein Audiowiedergabekonzept zu schaffen, das eine höhere Marktakzeptanz aufweist.
Diese Aufgabe wird durch ein Audiowiedergabesystem nach Patentanspruch 1, ein Verfahren zum Wiedergeben eines Audiosignals nach Patentanspruch 19 oder ein Computer- Programm nach Patentanspruch 20 gelöst.
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß Audiowiedergabesysteme, die eine Marktakzeptanz erreichen sollen, skalierbar sein müssen. Die Skalierbarkeit darf jedoch nicht nur hinsichtlich der zur Verfügung gestellten Rechenleistung stattfinden, sondern muß sich auch in dem Preis des Audiowiedergabesystems auswirken. Dies bedeutet in anderen Worten, daß ein Audiowiedergabesystem für einen großen Wiedergaberaum mehr kosten darf als ein Audiowiedergabesystem für einen kleinen Wiedergaberaum. In anderen Worten ausgedrückt muß ein Audiowiedergabesystem für einen kleinen Wiedergaberaum erheblich weniger kosten als ein Audiowiedergabesystem für einen großen Wiedergaberaum.
Bei vorstehend beschriebenen denkbaren Konzepten waren die Preisunterschiede unerheblich, da Preisunterschiede lediglich durch die Anzahl von einzelnen Lautsprechern bedingt waren, die jedoch aufgrund der Tatsache, daß sehr viele Lautsprecher bereitgestellt werden, und aufgrund neuartiger Integrationskonzepte in das Bauwerk, das den Wiedergaberaum beinhaltet, preisgünstig angeboten werden können .
Erfindungsgemäß wird das Audiowiedergabesystem in ein zentrales Wellenfeldsynthesemodul und in viele dezentral mit dem zentralen Wellenfeldsynthesemodul verbundene einzelne Lautsprechermodule aufgeteilt. Das zentrale Wellenfeldsynthesemodul empfängt ein Audiosignal mit einer Mehrzahl von Audiospuren und berechnet einerseits die Synthesesignale und andererseits die Kanalinformationen für die Kanäle von den virtuellen Positionen zu den realen Lautsprecherpositionen .
Das zentrale Wellenfeldsynthesemodul ist ferner ausgebildet, um jedem Lautsprecher eines oder mehrere Synthesesignale zuzuführen, die von dem betroffenen Lautsprecher wiederzugeben sind, sowie Kanalinformationen für die Audiokanäle von den virtuellen Positionen der virtuellen Quellen, von denen das eine oder die mehreren Synthesesignale stammen, zu dem betroffenen Lautsprecher zu liefern. Hierbei kann bereits eine erhebliche Datenratenübertragungseinschränkung erreicht werden, da die Erfahrung zeigt, daß sehr selten der Fall eintritt, daß jeder Lautsprecher Synthesesignale erhält, deren Energieinhalt größer als ein bestimmter Schwellwert ist. Das erfindungsgemäße zentrale Wellenfeldsynthesemodul hat somit bereits die Option, einem dezentralen Lautsprechermodul nur die Synthesesignale und ferner nur die Kanalinformationen für die Synthesesignale zuzuführen, die für den einzelnen Lautsprecher bedeutsam sind.
Die erfindungsgemäßen Lautsprechermodule sind dezentral ausgeführt und mit dem Lautsprecher unmittelbar gekoppelt bzw. vorzugsweise in räumlicher Nähe zum Lautsprecher angeordnet. Jedes Lautsprechermodul umfaßt einen Empfänger zum Empfangen des einen oder der' mehreren Synthesesignale für den betroffenen Lautsprecher sowie der den Synthesesignalen zugeordneten Kanalinformationen. Ferner umfaßt jedes Lautsprechermodul eine Rendering-Einrichtung zum Berechnen eines Wiedergabesignals für den Lautsprecher unter Verwendung der Synthesesignale und der Kanalinformationen für die zugeführten Synthesesignale. Schließlich umfaßt jedes Lautsprechermodul noch eine Signalverarbeitungseinrichtung mit möglicherweise einem digitalen Verstärker, einer weiteren digitalen Signalverarbeitungseinrichtung sowie schließlich einem Digital-Analog-Wandler zum Erzeugen eines analogen Lautsprechersignals, das dem betroffenen Lautsprecher zuzuführen ist, aufgrund des Wiedergabesignals. Zur Verbindung des zentralen Wellenfeldsynthesemoduls und der dezentralen Lautsprechermodule ist eine Mehrzahl von Übertragungsstrecken vorgesehen, wobei sich eine Übertragungsstrecke jeweils von dem zentralen Wellenfeldsynthesemodul zu dem einzelnen Lautsprecher erstreckt.
Sehr rechenaufwendig ist die Operation des Renderings, die im Hinblick auf die erforderliche Schaltungshardware in Form eines beispielsweise DSP oder einer fest verdrahteten Schaltung erheblich zu den Kosten beiträgt, insbesondere wenn an den Multiplikator gedacht wird, der für jeden einzelnen Lautsprecher vorgesehen ist. Vorzugsweise arbeitet die Rendering-Einrichtung unter Verwendung von Kanalimpulsantworten als Kanalinformationen und führt somit eine rechenzeitintensive Faltung durch, die entweder im Zeitbereich direkt ausführbar ist, oder im Frequenzbereich durchgeführt wird, wobei hierfür Transformationen in den Frequenzbereich und Transformationen aus dem Frequenzbereich erforderlich sind, die zusammen mit der eigentlichen Multiplikationsoperation im Frequenzbereich zu einem erheblichen Aufwand führen. Hierbei sei insbesondere daran gedacht, daß eine Rendering-Einheit nicht nur ein einziges Synthesesignal rendern muß, sondern immer eine große Anzahl von Synthese-Signalen, die normalerweise mit der Anzahl von virtuellen Quellen korrespondiert.
Das erfindungsgemäße Konzept führt dazu, daß dezentral durchführbare Operationen aus dem zentralen Wellenfeldsynthesemodul heraus in die dezentralen Lautsprechermodule verlagert werden, derart, daß im besten Fall nur noch die Operationen in dem zentralen Wellenfeldsynthesemodul ausgeführt werden, die für alle Lautsprecher gleichermaßen bedeutend sind, während sämtliche Operationen, die nur einen Lautsprecher betreffen, oder mehrere Lautsprecher, die an ein Lautsprechermodul angeschlossen sind, auch dezentral in dem LautSprechermodul ausgeführt werden.
Damit können die Kosten für das zentrale Wellensynthesemodul erheblich verringert werden, jedoch auf Kosten der Lautsprechermodule, deren Preis nunmehr nicht mehr vernachlässigbar ist, aufgrund der in den Lautsprechermodulen hauptsächlich durchgeführten Operation des Audio-Renderings .
Das erfindungsgemäße Audiowiedergabesystem ist nun jedoch sowohl hinsichtlich der Leistung als auch des Preises skalierbar. Es eröffnet sich die Möglichkeit, ein zentrales Wellenfeldsynthesemodul für eine große Anzahl von Wiedergaberäumen zu einem reduzierten Preis anzubieten, derart, daß die Kosten für das Gesamtsystem, die sich aus den Kosten für die Zentraleinheit und die dezentralen Lautsprechermodule ergeben, nunmehr stark mit der Anzahl von eingerichteten Lautsprechern und damit der Größe des Wiedergaberaums korrespondieren.
In anderen Worten ausgedrückt wird ein Betreiber eines großen Wiedergaberaums nach wie vor einen bestimmten Preis für ein Wiedergabesystem für seinen großen Wiedergaberaum entrichten müssen. Andererseits wird jedoch ein Betreiber eines kleineren Wiedergaberaums ein Audiowiedergabesystem zu einem erheblich geringeren Preis erstehen können, da die Anzahl von Lautsprechern und damit die Anzahl von aufwendigen und kostenintensiven Lautsprechermodulen im Vergleich zum großen Wiedergaberaum erheblich reduziert ist.
Das erfindungsgemäße Audiowiedergabesystem ermöglicht es somit, Audiowiedergabesysteme für kleinere Wiedergaberäume zu erheblich reduzierten Preisen im Vergleich zu großen Wiedergaberäumen anzubieten, so daß aufgrund des reduzierten Preises auf dem sehr wettbewerbsintensiven Markt der Audio/Video-Komponenten eine Marktakzeptanz erhofft wird.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung ist die zentrale Wellenfeldsyntheseeinheit ausgebildet, um im herkömmlichen Audioformat für Kinofilme aufgezeichnete Kinofilme verarbeiten zu können, wobei übliche Aufnahmeformate beispielsweise das 5.1-Surround- Format oder 7.1. -Format oder 10.2-Format sind. Ein solcher Kinofilm umfaßt am Beispiel des 5.1-Formats sechs Audiospuren, also Audiospuren für den Kanal "links hinten", "rechts hinten", "vorne links", "vorne rechts" und "vorne mitte", sowie den Baßkanal (Subwoofer-Kanal) . Eine Wiedergabe eines solchen im Hinblick auf die Audiotechnik herkömmlichen Kinofilms in dem erfindungsgemäßen Audiowiedergabesystem kann dadurch erreicht werden, daß die Audiospuren als virtuelle Quellen an virtuellen Positionen plaziert werden, die je nach Belieben des Tonmeisters bzw. des Betreibers des Wiedergaberaums gewählt werden können. Die Möglichkeit der kompatiblen Wiedergabe für ein Audiowiedergabesystem mit skalierbarem Preis liefert daher einen Beitrag, daß sich Audiowiedergabesysteme auf der Basis der Wellenfeldsynthese bereits zu einem Zeitpunkt verbreiten, zu dem noch wenig Kino/Video-Filme mit vollständig Wellenfeldsynthese-geeigneten Audiospuren zusammen mit den entsprechend nötigen Metainformationen über das Aufnahme-Setting vorliegen.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
Fig. 1 ein Konzeptionsdiagramm des erfindungsgemäßen Audiowiedergabesystems ;
Fig. 2 ein Blockschaltbild des erfindungsgemäßen zentralen Wellenfeldsynthesemoduls ;
Fig. 3 ein Blockschaltbild eines erfindungsgemäßen dezentralen Lautsprechermoduls;
Fig. 4 ein Blockschaltbild einer bevorzugten
Ausgestaltung der Audio-Renderingeinheit in einem dezentralen Lautsprechermodul;
Fig. 5 eine Prinzipdarstellung einer kompatiblen Wiedergabe mit großem Sweet Spot;
Fig. 6 eine Prinzipskizze für das Zustandekommen von mehreren Synthesesignalen für einen Lautsprecher, die jeweils mit Kanalinformationen zu beaufschlagen sind, um das Wiedergabesignal für den Lautsprecher LSi zu erhalten; und Fig. 7 eine Prinzipdarstellung eines Kanals von einer virtuellen Quelle zu einem realen Lautsprecher mit Darstellung der Größen, die einen Einfluß auf den Kanal haben können.
Das erfindungsgemäße Audiowiedergabesystem gliedert sich, wie es in Fig. 1 dargestellt ist, grundsätzlich in zwei Teile. Ein Teil ist das zentrale Wellenfeldsynthesemodul 10. Der andere Teil setzt sich aus einzelnen Lautsprechermodulen 12a, 12b, 12c, 12d, 12e zusammen, die mit tatsächlichen physikalischen Lautsprechern 14a, 14b, 14c, 14d, 14e derart verbunden sind, wie es in Fig. 1 gezeigt ist. Es sei darauf hingewiesen, daß die Anzahl der Lautsprecher 14a-14e bei typischen Anwendungen im Bereich über 50 und typischerweise sogar deutlich über 100 liegt. Wird jedem Lautsprecher ein eigenes LautSprechermodul zugeordnet, so wird auch die entsprechende Anzahl von Lautsprecher-Modulen benötigt. Je nach Anwendung wird es jedoch bevorzugt, von einem Lautsprecher-Modul aus eine kleine Gruppe von nebeneinander liegenden Lautsprechern anzusprechen. In diesem Zusammenhang ist es beliebig, ob ein Lautsprecher-Modul, das mit vier Lautsprechern beispielsweise verbunden ist, die vier Lautsprecher mit demselben Wiedergabesignal speist, oder ob für die vier Lautsprecher entsprechende unterschiedliche Synthesesignale berechnet werden, so daß ein solches Lautsprecher-Modul eigentlich aus mehreren einzelnen Lautsprecher-Modulen besteht, die jedoch physikalisch in einer Einheit zusammengefaßt sind.
Zwischen dem Wellenfeldsynthesemodul 10 und jedem einzelnen Lautsprecher-Modul 12a-12e befindet sich eine eigene Übertragungsstrecke 16a-lβe, wobei jede Übertragungsstrecke mit dem zentralen Wellenfeldsynthesemodul und einem eigenen Lautsprecher-Modul gekoppelt ist.
Als Datenübertragungsmodus zum Übertragen von Daten von dem Wellenfeldsynthesemodul zu einem Lautsprecher-Modul wird ein serielles Übertragungsformat bevorzugt, das eine hohe Datenrate liefert, wie beispielsweise ein sogenanntes Firewire-Übertragungsformat oder ein USB-Datenformat. Datenübertragungsraten von über 100 Megabit pro Sekunde sind vorteilhaft.
Der Datenstrom, der von dem Wellenfeldsynthesemodul 10 zu einem Lautsprecher-Modul übertragen wird, wird somit je nach gewähltem Datenformat in dem Wellenfeldsynthesemodul entsprechend formatiert und mit einer
Synchronisationsinformation versehen, die in üblichen seriellen Datenformaten vorgesehen ist. Diese Synchronisationsinformation wird von den einzelnen Lautsprecher-Modulen aus dem Datenstrom extrahiert und verwendet, um die einzelnen Lautsprecher-Module im Hinblick auf ihre Wiedergabe, also letztendlich auf die Analog- Digital-Wandlung zum Erhalten des analogen Lautsprechersignals und die dafür vorgesehene Abtastung (resampling) zu synchronisieren. Es wird bevorzugt, daß das zentrale Wellenfeldsynthesemodul als Master arbeitet, und daß alle Lautsprecher-Module als Clients arbeiten, wobei die einzelnen Datenströme über die verschiedenen Übertragungsstrecken 16a-16e alle dieselben Synchronisationsinformationen von dem Zentralmodul 10 erhalten. Dies stellt sicher, daß alle Lautsprecher-Module synchron, und zwar synchronisiert von dem Master 10, arbeiten, was für das vorliegende Audiowiedergabesystem wichtig ist, um keinen Verlust an Audioqualität zu erleiden, damit die vom Wellenfeldsynthesemodul berechneten Synthesesignale nicht zeitversetzt von den einzelnen Lautsprechern nach entsprechendem Audio-Rendering abgestrahlt werden. Vorteilhaft an diesem Konzept ist, daß die einzelnen Lautsprecher-Module nicht untereinander synchronisiert werden müssen. Sie sind automatisch untereinander synchronisiert, da sie alle synchron zum Master laufen. Eine Verbindung der einzelnen Lautsprecher- Module untereinander wird für die vorliegende Erfindung ungünstig sein, da das modulare Konzept der Skalierbarkeit mit den Lautsprecher-Modulen hinsichtlich der Wiedergaberaum-Größe ein einfaches Hinzufügen von Modulen erfordert, ohne daß entsprechende Verdrahtungen unter den Modulen erreicht werden müssen.
Fig. 2 zeigt ein Blockschaltbild eines zentralen Wellenfeldsynthesemoduls gemäß einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung. Das zentrale Wellenfeldsynthesemodul umfaßt zunächst eine Eingabe-Einrichtung 20, die grundsätzlich ausgebildet ist, um ein Audiosignal an einem Eingang zu empfangen, wobei das Audiosignal eine Mehrzahl von Audiospuren aufweist, wobei jeder Audiospur eine Audioquellenposition zugeordnet ist.
Je nach Anwendung ist die Audioquellenposition eine Angabe über die Position eines Lautsprechers bezüglich eines Zuhörers im Wiedergaberaum gemäß einem standardisierten Audio-Format, wie z. B. 5.1, um eine kompatible Wiedergabe zu erreichen. In diesem Fall hätte das Audiosignal 5+1=6 Audiospuren. Alternativ kann das Audiosignal eine größere Anzahl von Audiospuren haben, die bereits als Wellenfeldsynthese-geeignete Signale vorliegen und Audioquellen bzw. Audioobjekte in einer realen AufZeichnungsposition darstellen, die im Hinblick auf die Audiosignalwiedergabe als virtuelle Quellen im Wiedergaberaum unter Verwendung der Wellenfeldsynthese abgebildet werden.
Die Eingabeeinrichtung 20 wird ferner bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung als Hauptsteuerungseinheit verwendet, die vorteilhafterweise weitere Funktionalitäten hat. Insbesondere hat sie die Funktionalität eines Decodiermoduls, wie es üblicherweise in Kinos verwendet wird. Alternativ oder zusätzlich ist die Eingabeeinrichtung 20 auch als DVD-Decoder ausgebildet, der die separaten Audiokanäle bzw. Audiospuren liefert. Alternativ ist die Wiedergabeeinrichtung 20 auch als MPEG- 4-Decodiermodul ausgebildet, das bereits für eine Wellenfeldsynthese gedachte Audiospuren 21 und entsprechende Audioquelleninformationen 22 liefert. Insbesondere beziehen sich die Audiospuren 21 jeweils auf Audiosignale von Audioobjekten in einem Aufnahme-Setting, auf die Position der Audioobjekte in dem Aufnahme-Setting, auf Eigenschaften von Audioobjekten, insbesondere hinsichtlich der Größe des Audioobjekts oder der Dichte im Hinblick auf die akustischen Eigenschaften des Audioobjekts.
Ferner wird es bevorzugt, auch Eigenschaften des Aufzeichnungsraums bzw. der AufZeichnungsumgebung zusätzlich zu den Audiospuren 21 zu übertragen, um diese bei der Wellenfeldsynthese gegebenenfalls berücksichtigen zu können. Die Informationen über den Aufzeichnungsraum bzw. die AufZeichnungsumgebung sollen dafür dienen, daß dem Zuhörer nicht nur ein visueller sondern auch ein audiomäßiger Eindruck der Aufnahmesituation gegeben wird. So soll der Besucher auch an dem wiedergegebenen Ton merken, ob sich eine Aufnahmeszene eines Kinofilms unter freiem Himmel beispielsweise abspielt oder z. B. in einem kleinen Raum, wie beispielsweise einem U-Boot. Während ein Aufnahmeszenario unter freiem Himmel relativ „trockene" Audiosignale liefert, da die Aufnahmeumgebung kaum bzw. keine Reflexionen zeigt, wird diese Situation in einem U- Boot beispielsweise komplett anders sein. Hier ist das Aufnahme-Setting durch einen sehr reflexionsreichen Raum bzw. eine sehr reflexionsreiche Audioumgebung dargestellt. In diesem Fall wird es bevorzugt, die Audiospuren möglichst trocken, also ohne die Raumakustik im Aufnahmeraum einzuspielen und die Raumakustik hinsichtlich ihrer Eigenschaften durch zusätzliche Metainformationen zu beschreiben, wie sie gemäß dem Standard MPEG 4 im standardisierten Datenstrom übertragen werden können. Das zentrale Wellenfeldsynthesemodul umfaßt ferner eine Einrichtung 24 zum Bestimmen von Kanalinformationen einerseits und Wellenfeld-Synthesesignalen andererseits für die einzelnen Lautsprecher. Hierzu ist ferner eine Einrichtung 25 zum Umsetzen der Audioquellenpositionen 22 in virtuelle Positionen für die Wellenfeldsynthese vorgesehen.
Im einzelnen ist die Einrichtung 24 ausgebildet, um Audiokanalinformationen für jeden Audiokanal von einer virtuellen Position zu einer Lautsprecherposition zu bestimmen, wobei die virtuelle Position von der
Audioquellenposition, die der Audiospur zugeordnet ist, abhängt (Einrichtung 25) , so daß für jeden Kanal von jeder virtuellen Position zu jedem Lautsprecher
Audiokanalinformationen vorliegen. Ferner ist die
Einrichtung 24 ausgebildet, um unter Verwendung der
Prinzipien der Wellenfeldsynthese, wie sie eingangs dargestellt und bekannt sind, Synthesesignale von den virtuellen Positionen für die Lautsprecher zu berechnen.
Das zentrale Wellenfeldsynthesemodul in Fig. 2 umfaßt ferner eine Einrichtung 26 zum Liefern von Synthesesignalen zu einem oder mehreren Lautsprechern. Die Einrichtung 26 ist ferner ausgebildet, um Kanalinformationen für die übertragenen Syntheseinformationen von dem zentralen Wellenfeldsynthesemodul über die entsprechenden Übertragungsstrecken zu den einzelnen Lautsprechermodulen zu übertragen, damit dort ein Audio-Rendering stattfinden kann. Je nach Ausführungsform wird es bevorzugt, zu jedem Synthesesignal, das sich auf einen Kanal von einer virtuellen Position zu einem konkreten Lautsprecher bezieht, weitere Kanalinformationen für diesen Kanal zu übertragen. Dies bedeutet, daß bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung die Einrichtung 24 für jedes Synthesesignal auch Kanalinformationen liefert bzw. aus berechneten Kanalinformationen interpoliert und der Einrichtung 26 zur Verfügung stellt, damit dieselbe eine Übertragung zu den einzelnen Lautsprechermodulen initiieren kann. Vorzugsweise ist die Einrichtung 26 ausgebildet, um nicht-signifikante Synthesesignale herauszufiltern und damit weder die nicht- signifikanten Synthesesignale noch die dazugehörigen Kanalinformationen zu übertragen, um Datenübertragungskapazitäten einzusparen. So tritt oft der Fall auf, daß eine virtuelle Quelle zu signifikanten Synthesesignalen nur für einige Lautsprecher führt, während für alle anderen Lautsprecher im Lautsprecherarray zwar aufgrund der Theorie der Wellenfeldsynthese ebenfalls Synthesesignale berechnet werden können, die jedoch z. B. hinsichtlich ihrer Leistung in einem bestimmten Zeitabschnitt relativ klein sind und daher im Hinblick auf eine reduzierte Datenübertragungsmenge vernachlässigt werden können.
Im einzelnen umfaßt die Einrichtung 24 Funktionalitäten, um dazu verwendet zu werden, um die Audiosignale vorzuverarbeiten. Darüber hinaus steuert die Einrichtung 24 die einzelnen Lautsprechermodule insbesondere auch dahingehend, daß sie entweder unmittelbar oder in Verbindung mit der Einrichtung 26 Synchronisationsinformationen in die zu den einzelnen Lautsprechermodulen übertragenen Datenströme einbringt und somit eine Zentralsynchronisation aller Lautsprechermodule auf das zentrale Wellenfeldsynthesemodul erreicht.
Insbesondere ist das zentrale Wellenfeldsynthesemodul ausgebildet, um sämtliche Verarbeitungsoperationen durchzuführen, die für alle Reproduktionskanäle gleich sind, während gemäß dem erfindungsgemäßen Konzept die Verarbeitungsoperationen dezentral durchgeführt werden, die für die einzelnen Lautsprecher bzw. die einzelnen Reproduktionskanäle unterschiedlich sind.
Die Einrichtung 24 ist ferner ausgebildet, um eine Simulation von Wellenfeldsynthese-Informationen für Stereo- Signale, 5.1-Signale, 7.2-Signale, 10.2-Signale etc. im Hinblick auf eine kompatible Wiedergabe durchzuführen. Hierzu werden als Audioquellenpositionen die Normpositionen von Lautsprechern bezüglich eines Wiedergaberaums für das genormte Audioformat verwendet .
In dieser Hinsicht wird nachfolgend auf Fig. 5 Bezug genommen. Fig. 5 zeigt einen Wiedergaberaum 50, ein Lautsprecherarray 52, das sich um den Wiedergaberaum erstreckt, sowie eine Vielzahl von virtuellen Quellen 53a- 53e, die, wie es aus Fig. 5 ersichtlich ist, an virtuellen Positionen positioniert sind, die sich außerhalb des Wiedergaberaums 50 befinden. Die Einrichtung 24 ist in Verbindung mit der Einrichtung 25 von Fig. 1 ausgebildet, um aus den Audioquelleninformationen, also den Norm- Positionsangaben für ein solches beispielsweise 5.1-Signal, virtuelle Positionen zu berechnen, die manuell steuerbar sind. Je nach Ausführungsform wird es bevorzugt, die virtuellen Positionen z. B. ins Unendliche zu verschieben, so daß das Lautsprecherarray 52 den Wiedergaberaum 50 mit ebenen Wellen beschallt. Dies führt dazu, daß der sogenannte Sweet-Spot, also der Bereich in einem Wiedergaberaum, in dem ein optimaler Klangeindruck erhalten wird, im Vergleich zu einer üblichen Situation, bei der reale 5.1-Lautsprecher im Wiedergaberaum plaziert sind, erheblich vergrößert wird.
Alternativ können die virtuellen Quellen auch an finiten virtuellen Positionen plaziert werden und als Punktquellen modelliert werden, wobei diese Option den Vorteil hat, daß der Klangeindruck auf den Kino-Zuschauer/Zuhörer angenehmer wirkt. Ebene Wellen haben die Eigenschaft, daß der Zuhörer den Eindruck hat, daß er in einem sehr großen Raum sitzt, was insbesondere zu einer unangenehmen Sinneswahrnehmung führt, wenn auf der Leinwand beispielsweise gerade eine U- Boot-Szene stattfindet. In diesem Zusammenhang sei darauf hingewiesen, daß übliche Kinofilme mit beispielsweise 5.1- Audiospuren keine Informationen über akustische Eigenschaften des Aufnahme-Settings umfassen. Daher wird es in einem solchen Fall bevorzugt, einen Kompromiß zwischen den ebenen Wellen, also den virtuellen Quellen an unendlicher Position oder den virtuellen Quellen an einer finiten Position zu finden. In diesem Zusammenhang liefert das erfindungsgemäße Audiowiedergabesystem ferner die Möglichkeit, je nach Filmszene die virtuellen Positionen der virtuellen Lautsprecher 53a-53e zu variieren. Findet beispielsweise eine Szene unter freiem Himmel statt, so können die Lautsprecher ins Unendliche positioniert werden. Findet dagegen eine Szene in einem kleinen Raum statt, so können die Lautsprecher näher an den Wiedergaberaum 50 hin positioniert werden.
Im Zusammenhang mit der kompatiblen Wiedergabe ist bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung die Eingabeeinrichtung 20 ausgebildet, um die Audiospuren, die dem Videosignal zugeordnet sind, um eine bestimmte Zeit-„Verzögerung" vor den Videosignalen abzutasten, derart, daß nach der Verarbeitung im Wellenfeldsynthesemodul in den einzelnen Lautsprechermodulen der zu einem Zeitpunkt gehörige Ton gleichzeitig mit dem zu einem Zeitpunkt gehörigen Videosignal abgetastet wird. Die negative „Verzögerung" muß zumindest derart bemessen sein, daß in dem erfindungsgemäßen Audiowiedergabesystem Ton und Bild zueinander gehörig ausgestrahlt werden. Wird die negative Verzögerung etwas größer bemessen, so können die Signale bereits fertig berechnet werden und beispielsweise durch ein entsprechendes Synchronisationssignal, das Synchronität von Bild und Ton sicherstellt, von den Lautsprechermodulen zu den Lautsprechern ausgegeben werden.
Sowohl im Fall der kompatibel Wiedergabe als auch im Fall, in dem das eingegebene Audiosignal bereits vorbereitete Wellenfeldsynthese-Informationen über Schallquellen im Aufnahme-Setting umfaßt, wird es bevorzugt, Informationen über den Wiedergaberaum über eine Leitung 27 der Kanalinformationsberechnungseinrichtung 24 zuzuführen, so daß die Synthesesignale unter Verwendung der Informationen über den Wiedergaberaum aufbereitet werden können, um z. B. eine Elimination der akustischen Eigenschaften des Wiedergaberaums zu erreichen.
Informationen über den Wiedergaberaum können entweder aufgrund der geometrischen Beschaffenheit des Wiedergaberaums ermittelt werden, oder im Wiedergaberaum unter Verwendung der Lautsprecher und spezieller Mikrophonarrays gemessen werden, wobei eine Ansteuerung und Auswertung hierfür über ein Adaptionsmodul 28 für den Wiedergaberaum stattfinden kann. So wird es bei einem Ausführungsbeispiel der vorliegenden Erfindung bevorzugt, während der Wiedergabe die akustischen Eigenschaften des Wiedergaberaums zu bestimmen und entsprechend die Informationen über den Wiedergaberaum nachzustellen, so daß auch für ein beispielsweise gefülltes Kino eine optimale Unterdrückung der Kinoakustik stattfindet. An dieser Stelle sei darauf hingewiesen, daß sich insbesondere bei kleineren, vollgefüllten Wiedergaberäumen die akustischen Eigenschaften des Wiedergaberaums deutlich von denen unterscheiden, wenn keine Personen in dem Wiedergaberaum vorhanden sind.
Das Adaptionsmodul 28 für den Wiedergaberaum umfaßt ferner ein Mikrophonarray, das zur Messung der Eigenschaften der Wiedergabe eingesetzt werden kann. Ferner umfaßt das Adaptionsmodul 28 für den Wiedergaberaum Algorithmen, um die Position von Lautsprecherarrays in dem Reproduktionsraum zu finden. Ferner wird hier eine Vorverarbeitung von Meßergebnissen durchgeführt, um eine optimale Invertierung der Raum- und der Lautsprechereigenschaften durchzuführen, wobei das Adaptionsmodul 28 hierzu vorzugsweise von der Einrichtung 24 angesteuert wird. Je nach Ausführungsform wird das Adaptionsmodul 28 für den Wiedergaberaum lediglich zum Systemaufbau benötigt. Wenn aber eine durchgehende Adaption an eine veränderte Situation im Wiedergaberaum gewünscht ist, kann das Adaptionsmodul 28 auch im Betrieb dauernd eingesetzt werden.
Wenn die Kanalinformationsberechnungseinrichtung 24 zum Verarbeiten von in die Einrichtung 20 eingegebenen WFS- spezifischen Signalen eingesetzt wird, werden die zusätzlichen WFS-Informationen, also die Eigenschaften beispielsweise der Audioobjekte und die Eigenschaften des Aufnahmeraums, aus dem eingegebenen Audiosignal extrahiert und über eine WFS-Informationsleitung 29 der Einrichtung 24 zugeführt, damit diese Informationen bei der Kanalinformationsberechnung berücksichtigt werden können.
In diesem Fall ist das zentrale WFS-Modul ferner ausgebildet, um eine Vorverarbeitung der WFS-aufbereiteten Audiosignale durchzuführen. Ferner ist die Einrichtung 24 und/oder die Einrichtung 26 dafür vorgesehen, die Synchronisation zwischen Bild und Ton zu erreichen, wobei hierfür, wie es ausgeführt worden ist, in den vorzugsweise seriellen Datenströmen zu den einzelnen Lautsprechermodulen Zeitcodes eingebracht werden. Schließlich ist die Kanalinformationsberechnungseinrichtung 24, wie es bereits ausgeführt worden ist, auch dafür verantwortlich, um das Adaptionsmodul 28 anzusteuern, um die Messung der akustischen Eigenschaften des Reproduktionsraums, wenn dies gewünscht ist, entweder vor der Wiedergabe oder während der Wiedergabe zu steuern.
Die Multiplexer/Sendestufe 26 ist ausgebildet, um Synchronisationsinformationen, die entweder von der Einrichtung 24, von der Steuereinrichtung 20 oder in der Einrichtung 26 selbst erzeugt werden, in die Datenströme zu den Lautsprechermodulen einzufügen, denen ferner die für die einzelnen Lautsprecher erforderlichen Synthesesignale und nötige Kanalinformationen zugeführt werden.
An dieser Stelle sei ferner darauf hingewiesen, daß der Einrichtung 24 zur Berechnung der Kanalinformationen und zur Berechnung der Synthesesignale ferner die Lautsprecherorte in dem speziellen Wiedergaberaum zur Verfügung gestellt werden müssen, um die einzelnen Synthesesignale und die einzelnen Kanalinformationen für die einzelnen Lautsprecher zu berechnen. Dies ist in Fig. 2 durch eine Leitung 30 symbolisch dargestellt.
Nachfolgend wird Bezug nehmend auf Fig. 3 auf ein bevorzugtes Ausführungsbeispiel für ein Lautsprechermodul eingegangen. Das LautSprechermodul umfaßt zunächst einen Empfänger/Decodiererblock 31, um den Datenstrom von der Selektionseinrichtung zu empfangen, und aus demselben Synthesesignale 31a, zugeordnete Kanalinformationen 31b sowie Synchronisationsinformationen 31c zu extrahieren. Das LautSprechermodul, das in Fig. 3 dargestellt ist, umfaßt ferner als zentrale Einheit eine Audio-Rendering- Einrichtung 32 zum Berechnen eines Wiedergabesignals für den Lautsprecher unter Verwendung der einen oder der mehreren Synthesesignale und unter Verwendung der Kanalinformationen, die den Synthesesignalen zugeordnet sind. Schließlich umfaßt ein Lautsprechermodul eine Signalverarbeitungseinrichtung 33 mit einem Digital/Analog- Wandler zum Erzeugen eines analogen Lautsprecher-Signals, das dem betroffenen Lautsprecher LSi 34 zugeführt wird, um ein Schallsignal zu erzeugen. Die Signalverarbeitungseinrichtung 33 und insbesondere der Resampler, der mit dem Digital/Analog-Wandler zusammenarbeitet, wird über die vom Empfänger 31 aus dem Datenstrom extrahierten Synchronisationsinformationen (31c) versorgt, um synchron zum zentralen Wellenfeldsynthesemodul und damit synchron zu allen anderen Lautsprechermodulen die von der Einrichtung 24 von Fig. 1 berechneten an den Lautsprechern überlagerten und mit Kanalinformationen beaufschlagten Synthesesignale zeitrichtig abzustrahlen.
Das in Fig. 3 gezeigte Lautsprechermodul zeichnet sich somit durch die Kombination eines digitalen Empfängers, einer weiteren Signalverarbeitungseinrichtung und eines Digital-Analog-Wandlers aus, wobei in der Signalverarbeitungseinrichtung 33 insbesondere auch ein digitaler Verstärker vorgesehen sein kann. Alternativ kann das Signal jedoch auch nach der Digital/Analog-Wandlung verstärkt werden, obgleich die digitale Verstärkung aufgrund der genaueren Möglichkeit der Synchronisation bevorzugt wird. Ferner wird es bevorzugt, den Lautsprecher 34 über eine kurze Analogleitung mit der Signalverarbeitungseinrichtung 33 zu koppeln. Ist es jedoch nicht möglich, daß die Leitung von der Signalverarbeitungseinrichtung 33 zum Lautsprecher 34 kurz ist, so wird es bevorzugt, daß die entsprechenden Leitungen aller Lautsprecher dieselbe Länge haben bzw. Längenunterschiede haben, die in einer vorbestimmten Toleranzgrenze liegen, da die Synchronisation vorzugsweise auf digitaler Seite durchgeführt wird, so daß bei stark unterschiedlichen Leitungslängen zwischen den Lautsprechermodulen und dem Lautsprecher eine Desynchronisation auftreten könnte, die bereits zu hörbaren Artefakten bzw. zu einem Verlust des Klangeindrucks, der durch die Wellenfeldsynthese geschaffen werden soll, führen könnten.
Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden als Kanalinformationen Kanalimpulsantworten im Zeitbereich oder im Frequenzbereich übertragen. In diesem Fall ist die Audio- Renderingeinrichtung 32 ausgeführt, um eine Faltung der einzelnen Synthesesignale mit den den Synthesesignalen zugeordneten Kanalinformationen durchzuführen. Diese Faltung kann tatsächlich im Zeitbereich als Faltung implementiert werden, oder kann je nach Bedarf im Frequenzbereich durch Multiplikation des Analysesignals im Frequenzbereich mit der Kanalübertragungsfunktion durchgeführt werden. Eine im Hinblick auf den Verarbeitungsaufwand optimierte Ausgestaltung ist in Fig. 4 dargestellt. Fig. 4 zeigt eine bevorzugte Ausführungsform der Audio-Renderingeinrichtung 32 und umfaßt für jedes Synthesesignals Sji(t) einen Zeit-Frequenz-Umsetzungsblock 34a, 34b, 34c, sowie für jeden Zweig einen Multiplizierer 35a, 35b, 35c zum Multiplizieren der Transformierten eines Synthesesignals mit der Transformierten einer Kanalimpulsantwort Hji(f), einen Summierer 36 sowie eine abschließende Frequenz-Zeit-Umsetzungseinrichtung 37, die derart verschaltet sind, wie es in Fig. 4 gezeigt ist. Die in Fig. 4 gezeigte Anordnung zeichnet sich dadurch aus, daß sie im Hinblick auf den Verarbeitungsaufwand reduziert ist, indem die Summation der Synthesesignale, die bereits mit den entsprechenden Kanalübertragungsfunktionen beaufschlagt sind, im Frequenzbereich stattfindet, so daß für jedes Lautsprechermodul unabhängig von der Anzahl der Synthesesignale nur eine einzige Frequenz-Zeit- Umsetzungseinrichtung vorhanden ist. Je nach Ausführungsform kann die Zeit-Frequenz-Transformation der Synthesesignale s-μ vollständig parallel ausgeführt werden, oder, wenn ausreichend Zeit vorhanden ist, auch seriell/parallel oder komplett seriell.
Wie es ausgeführt worden ist, zeichnet sich die in Fig. 4 gezeigte bevorzugte Audio-Rendering-Einrichtung 32 dadurch aus, daß sie unabhängig von der Anzahl von Synthesesignalen, die einem Lautsprechermodul zugeführt werden, lediglich eine einzige Frequenz-Zeit- Umsetzungseinrichtung 37 aufweist, die vorzugsweise als inverse FFT implementiert ist, wobei in diesem Fall die Einrichtungen 34a, 34b, 34c als FFT (FFT = schnelle Fourier-Transformation) implementiert sind.
Die in Fig. 3 gezeigte Audio-Rendering-Einrichtung 32 ist ferner ausgebildet, um spezielle Programminformationen von dem zentralen Wellenfeldsynthesemodul, das in Fig. 2 gezeigt ist, zu erhalten. Hierzu umfaßt die Multiplexer/Sendestufe 26 einen speziellen Ausgang, um die Programminformationen zu den Lautsprecher-Modulen zu liefern. Je nach Anwendungsfall können die Programminformationen auch in den Datenstrom mit Synthesesignalen und Kanalinformationen gemultiplext sein, obgleich dies nicht zwingend erforderlich ist.
Nachfolgend wird ein Beispiel für die Übertragung von Programminformationen zu einem Lautsprecher-Modul dargestellt. Werden die Kanalinformationen als Kanalimpulsantworten beschrieben und zu den einzelnen LautSprechermodulen übertragen, so wird es bevorzugt, im Sinne einer Datenrateneinsparung, nicht die gesamte Impulsantwort zu übertragen, sondern lediglich Abtastwerte der Impulsantwort, die in einem vorderen Bereich der Impulsantwort liegen, dessen Einhüllende noch einen Betrag über einen Schwellenwert hat. An dieser Stelle sei darauf hingewiesen, daß Impulsantworten typischerweise zu kleinen Zeitpunkten große Werte haben und nach und nach kleinere Werte annehmen und schließlich einen sogenannten „Nachhallschwanz" haben, der für den Klangeindruck zwar wichtig ist, dessen Abtastwerte jedoch nicht mehr besonders groß sind, und dessen spezielle Phasenverhältnisse vom Ohr nicht mehr stark wahrgenommen werden. In diesem Fall wird es bevorzugt, den Nachhallschwanz, dessen Einhüllende unterhalb des Schwellenwerts liegt, nicht mehr anhand seiner Abtastwerte zu übertragen, sondern lediglich noch Stützwerte für die Einhüllende zu übertragen. Abtastwerte für den Nachhallschwanz, die von der Audio-Rendering- Einrichtung 32 benötigt werden, werden dann erfindungsgemäß dadurch erzeugt, daß die Audio-Rendering-Einrichtung eine zufällige Folge von Nullen und Einsen erzeugt, deren Amplitude mit den übertragenen Stützwerten für die Einhüllende gewichtet werden. Zur weiteren Datenreduktion wird es bevorzugt, nur einige wenige Stützwerte zu übertragen und zwischen den Stützwerten zu interpolieren, und die interpolierte Einhüllende dann zur Gewichtung der Zufalls-0/1-Folge zu verwenden.
Es sei darauf hingewiesen, daß die Zufalls-0/1-Folge vorzugsweise durch positive Spannungswerte für eine „1" und negative Spannungswerte für eine „0" realisiert wird. Die Information darüber, daß die Audio-Rendering-Einrichtung Kanalinformationen empfängt, die bis zu einem bestimmten Wert tatsächliche Samples sind und dann lediglich Stützwerte für die Einhüllende sind, wird über den Programminformationeneingang, der in Fig. 3 gezeigt ist, übertragen, oder ist fest vereinbart.
Das erfindungsgemäße Wellenfeldsynthesemodul umfaßt ferner eine in Fig. 2 nicht gezeigte WFS-Mixingkonsole, die ein
Autorensystem umfaßt, um WFS-Tonbeschreibungen zu erzeugen.
Nachfolgend wird Bezug nehmend auf Fig. 6 auf die der Erzeugung von Synthesesignalen zugrundeliegende Vorgehensweise eingegangen. Betrachtet wird ein System mit drei virtuellen Quellen an drei virtuellen Positionen 60, 61, 62 sowie einem Lautsprecher LSi 63 an einer realen Lautsprecherposition, die dem zentralen WFS-Modul bekannt ist. Ferner sind die virtuellen Positionen der virtuellen Quellen 60, 61, 62 dem zentralen Wellenfeldsynthesemodul entweder daraus bekannt, daß sie in einem WFS-aufbereiteten Eingabesignal zugeführt werden, oder daß sie unter Verwendung von Audioquellenpositionen durch die Einrichtung 25 zur Berechnung der virtuellen Positionen abgeleitet werden. Die Synthesesignale s2ι, s2ι und s3i sind die Signale, die der Lautsprecher 63 abstrahlen muß, und die auf die jeweiligen virtuellen Positionen 60, 61, 62 zurückgehen. Daraus wird ersichtlich, daß, wie es ausgeführt worden ist, jeder Lautsprecher die Überlagerung von mehreren Synthesesignalen abstrahlen wird.
Zwischen jeder virtuellen Position und jedem Lautsprecher wird ferner ein Kanal ji definiert, der beispielsweise durch eine Impulsantwort, eine Übertragungsfunktion oder irgendeine andere Kanalinformation beschrieben werden kann, wie es anhand von Fig. 7 dargestellt ist. In die Kanalbeschreibung können sämtliche gewünschte Eigenschaften verpackt werden, um dann die Synthesesignale, die von dem Wellenfeldsynthesemodul berechnet werden, mit den Kanalinformationen für den entsprechenden einem Synthesesignal zugeordneten Kanal zu beaufschlagen. Ist die Kanalinformation in Form einer Impulsantwort gegeben, die den Kanal beschreibt, so ist die Beaufschlagung eine Faltung. Liegen die Signale im Frequenzbereich vor, so ist die Beaufschlagung eine Multiplikation. Alternative Kanalinformationen können ebenfalls je nach Ausführungsform eingesetzt werden.
Im nachfolgenden wird anhand von Fig. 7 dargestellt, durch welche Informationen ein Kanal 70 von einer virtuellen Quelle 71 zu einem realen Lautsprecher 72 beeinflußt werden kann. Zunächst geht in die Kanalinformation, also beispielsweise die Kanalimpulsantwort die virtuelle Position der virtuellen Quelle 71 ein. Ferner gehen Eigenschaften der virtuellen Quelle ein, wie z. B. Größe, Dichte, etc. So wird z. B. ein kleines Triangel anders beschrieben und modelliert werden müssen, als eine große Pauke. Ferner gehen, wie es in Fig. 7 gezeigt ist, die Eigenschaften des Aufnahmeraums in die Kanalübertragungsfunktion ein. Weitere Einflußkomponenten sind eine Systemverzerrung des gesamten Audiowiedergabesystems, in dem beispielsweise Lautsprecherverzerrungen bzw. Nichtidealitäten der Lautsprecher enthalten sind. In die Kanalinformationen gehen ferner Informationen über den Wiedergaberaum ein, um eine Kompensation der akustischen Eigenschaften des Wiedergaberaums zu erreichen. Wenn von dem Wiedergaberaum beispielsweise bekannt ist, daß er eine frontal einem Lautsprecher gegenüberliegende Wand aufweist, die reflektiert, und deren Reflexion jedoch unterdrückt werden soll, so wird der entsprechende Lautsprecher unter Berücksichtigung dieser Informationen derart angesteuert, daß er ein Signal enthält, das zu dem reflektierten Signal um 180 Grad phasenverschoben ist und eine entsprechende Amplitude hat, so daß eine auslöschende Reflexion auftritt und die Wand akustisch transparent wird, d. h. für einen Zuhörer nicht mehr aufgrund der Reflexionen identifizierbar ist.
Schließlich kann die Kanalinformation auch dazu verwendet werden, um eine bestimmte Zielwiedergabeakustik einzustellen. Hierzu wird es bevorzugt, zunächst die Akustik des Wiedergaberaums zu unterdrücken in Form einer Wiedergaberaumkompensation, um dann Kanalinformationen zu erzeugen und dem Wellenfeldsynthesemodul zuzuführen, so daß in einem Wiedergaberaum eine Akustik eines beliebigen anderen Wiedergaberaums simuliert werden kann.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Wiedergeben eines Audiosignals in Hardware oder in Software implementiert werden. Die Implementation kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, daß das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit auf einem maschinenlesbaren Träger gespeichertem Programmcode zur Durchführung des erfindungsgemäßen Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer- Programm auf einem Computer abläuft.

Claims

Patentansprüche
Audiowiedergabesystem für einen Wiedergaberaum, in dem eine Vielzahl von Lautsprechern (14a-14e) an definierten Lautsprecherorten angeordnet ist, unter Verwendung eines Audiosignals mit einer Mehrzahl von Audiospuren, wobei jeder Audiospur eine Audioquellenposition zugeordnet ist, mit folgenden Merkmalen:
einem zentralen Wellenfeldsynthesemodul (10) , das ausgebildet ist,
um Audiokanalinformationen für jeden Audiokanal von einer virtuellen Position zu einer Lautsprecherposition zu bestimmen, wobei die virtuelle Position von der Audioquellenposition, die der Audiospur zugeordnet ist, abhängt, so daß für jeden Kanal von jeder virtuellen Position zu jedem Lautsprecher Audiokanalinformationen vorliegen,
um Synthesesignale von den virtuellen Positionen für die Lautsprecher (24) zu berechnen, und
um jedem Lautsprecher eines oder mehrere Synthesesignale, die von dem betroffenen Lautsprecher wiederzugeben sind, sowie
Kanalinformationen für das eine oder die mehreren Synthesesignale zuzuführen (26) ;
einer Vielzahl von Lautsprechermodulen (12a-12e) , wobei ein Lautsprechermodul einem Lautsprecher zugeordnet ist, und wobei jedes LautSprechermodul folgende Merkmale aufweist: einen Empfänger (31) zum Empfangen des einen oder der mehreren Synthesesignale für den betroffenen Lautsprecher sowie der Kanalinformationen;
eine Renderingeinrichtung (32) zum Berechnen eines Wiedergabesignals für den Lautsprecher unter Verwendung des einen oder der mehreren Synthesesignale und der Kanalinformationen für den betroffenen Lautsprecher; und
einer Signalverarbeitungseinrichtung (33) zum Erzeugen eines analogen Lautsprechersignals, das dem betroffenen Lautsprecher zuführbar ist, aufgrund des Wiedergabesignals; und
einer Mehrzahl von Übertragungsleitungen (16a-16e) von dem zentralen Wellenfeldsynthesemodul zu jedem Lautsprecher, wobei jede Übertragungsstrecke mit dem zentralen Wellenfeldsynthesemodul einerseits und einem eigenen Lau Sprechermodul andererseits gekoppelt ist.
2. Audiowiedergabesystem nach Anspruch 1, bei dem jedes Lautsprechermodul mit dem Lautsprecher, dem dasselbe zugeordnet ist, in einem Verbund ausgeführt ist, so daß eine räumliche Entfernung zwischen dem Lautsprecher und dem Lautsprechermodul kleiner ist als eine räumliche Entfernung zwischen dem Lautsprechermodul und dem zentralen Wellenfeldsynthesemodul .
3. Audiowiedergabesystem nach Anspruch 1 oder 2, bei dem die Audiokanalinformationen Impulsantworten für die Audiokanäle sind.
4. Audiowiedergabesystem nach Anspruch 3, bei dem die Rendering-Einrichtung zum Berechnen eines Wiedergabesignals eine Faltungseinrichtung aufweist, um eine oder mehrere Faltungsinformationen unter Verwendung des einen oder der mehreren Synthesesignale mit den entsprechenden Impulsantworten durchzuführen.
5. Audiowiedergabesystem nach Anspruch 4, bei dem die Rendering-Einrichtung (32) folgende Merkmale aufweist:
eine Zeitbereich-Frequenzbereich-UmsetZungseinrichtung (34a, 34b, 34c) für jedes Synthesesignal;
eine Multipliziereinrichtung (35a, 35b, 35c) für jedes Synthesesignal;
eine Summationseinrichtung (26) zum Summieren von im Frequenzbereich vorliegenden mit entsprechenden Kanalimpulsantworten beaufschlagten Synthesesignalen; und
eine einzige Frequenzbereich-Zeitbereich-Umsetzungseinrichtung (37) zum Umsetzen des Summensignals in den Zeitbereich, um das Wiedergabesignal zu erhalten.
6. Audiowiedergabesystem nach Anspruch 1, bei dem die Signalverarbeitungseinrichtung (33) in dem Lautsprechermodul einen digitalen Verstärker aufweist.
7. Audiowiedergabesystem nach Anspruch 4, bei dem das zentrale Wellenfeldsynthesemodul ausgebildet ist, um einen ersten Teil der Kanalimpulsantwort abtastwertweise zu übertragen und einen zweiten Teil lediglich unter Verwendung von Hüllkurven-Stützwerten, und
bei dem die Rendering-Einrichtung (32) ausgebildet ist, um den zweiten Teil der Kanalimpulsantwort unter Verwendung der Stützwerte zu rekonstruieren.
8. Audiowiedergabesystem nach Anspruch 7, bei dem die Rendering-Einrichtung (32) ausgebildet ist, um den zweiten Teil der Kanalimpulsantwort durch einen Rauschgenerator oder Pseudo-Rausch-Generator zu erzeugen, wobei Rauschwerte oder Pseudo-Rausch-Werte amplitudenmäßig mit den Stützwerten und/oder aus den Stützwerten interpolierten Hilfswerten gewichtet sind.
9. Audiowiedergabesystem nach einem der vorhergehenden Ansprüche, bei dem die Audiospuren genormte Mehrkanalspuren sind und die Audioquellenpositionen Normpositionen sind, die sich auf eine Positionierung von Wiedergabe-Lautsprechern in einem Wiedergaberaum beziehen, wobei die Anzahl der Normpositionen gleich der Anzahl der genormten Mehrkanalspuren ist.
10. Audiowiedergabesystem nach Anspruch 9, bei dem das Wellenfeldsynthesemodul ausgebildet ist, um die virtuellen Positionen zur Berechnung der Audiokanalinformationen aus den Normpositionen (22) zu berechnen (25) .
11. Audiowiedergabesystem nach Anspruch 10, bei dem das Wellenfeldsynthesemodul ausgebildet ist, um die virtuellen Positionen im Unendlichen zu plazieren
(25) , so daß die Vielzahl von Lautsprechern zusammen ebene Schallwellen abstrahlen.
12. Audiowiedergabesystem nach Anspruch 10, bei der das Wellenfeldsynthesemodul ausgebildet ist, um virtuelle Wiedergabe-Lautsprecher an definierten virtuellen Positionen als punktförmige Schallquellen zu simulieren, die so weit von der Vielzahl von Lautsprechern entfernt sind, daß ein optimaler Wiedergabebereich im wesentlichen den gesamten Wiedergaberaum umfaßt.
13. Audiowiedergabesystem nach einem der Ansprüche 9 bis 12, bei dem die Audiospuren Teil eines Video- oder Kinofilms sind, wobei das Wellenfeldsynthesemodul ausgebildet ist, um die Audiospuren des Video- oder Kinofilms um eine Zeitspanne versetzt vor einer Videowiedergabe abzutasten, wobei die Zeitspanne ausgewählt ist, um unter Berücksichtigung einer Verarbeitungszeit in dem Wellenfeldsynthesemodul und dem Lautsprechermodul eine gleichzeitige Wiedergabe von Bild und Ton zu erhalten.
14. Audiowiedergabesystem nach einem der Ansprüche 1 bis " 13, bei dem das Audiosignal für Audioobjekte in einer
Aufnahmeumgebung jeweils als Audiospur ein Audiosignal des Objekts sowie eine Position des Audioobjekts in der Aufnahmeumgebung, eine oder mehrere Eigenschaften des Audioobjekts wie Größe oder Dichte und/oder Informationen über akustische Eigenschaften einer Auf ahmeumgebung umfaßt .
15. Audiowiedergabesystem nach Anspruch 14, bei dem die Wellenfeldsynthesemodul ausgebildet ist, um die virtuellen Positionen aus Positionen der Audioobjekte in der Aufnahmeumgebung zu bestimmen.
16. Audiowiedergabesystem nach einem der vorhergehenden Ansprüche, bei dem das Wellenfeldsynthesemodul ausgebildet ist, um Informationen über akustische Eigenschaften des Wiedergaberaums zu erhalten und bei der Bestimmung der Kanalinformationen zu berücksichtigen, so daß die durch die Vielzahl von Lautsprechern wiedergegebenen Schallwellen derart gestaltet sind, daß akustische Einflüsse des Wiedergaberaums reduziert sind.
17. Audiowiedergabesystem nach einem der vorhergehenden Ansprüche, bei dem das Wellenfeldsynthesemodul ausgebildet ist, um eine Adaption an eine Akustik des Wiedergaberaums vor oder während einer Wiedergabe des Audiosignals durchzuführen, indem eine Vielzahl von Raumimpulsantworten zwischen den Lautsprechern und in dem Wiedergaberaum positionierten Mikrophonen berechnet wird,
eine insgesamte Impulsantwort des Wiedergaberaums aus der Vielzahl von Raumimpulsantworten interpoliert wird, und
die gesamte Impulsantwort bei der Berechnung der Kanalinformationen berücksichtigt wird, um akustische Eigenschaften des Wiedergaberaums zu reduzieren.
18. Audiowiedergabesystem nach einem der vorhergehenden Ansprüche, bei dem das zentrale
Wellenfeldsynthesemodul ausgebildet ist, um Synchronisationsinformationen zu erzeugen und in Datenströme zu den Lautsprechermodulen einzubetten, und bei dem die Mehrzahl von Lautsprechermodulen ausgebildet ist, um die Synchronisationsinformationen von dem zentralen Wellenfeldsynthesemodul zu empfangen und zur Synchronisation zu verwenden, so daß die Lautsprechermodule auf das zentrale Wellenfeldsynthesemodul synchronisiert sind.
19. Verfahren zum Wiedergeben eines Audiosignals in einem Wiedergaberaum, in dem eine Vielzahl von Lautsprechern an definierten Lautsprecherorten angeordnet ist, wobei das Audiosignal eine Mehrzahl von Audiospuren aufweist, wobei jeder Audiospur eine Audioquellenposition zugeordnet ist, mit folgenden Schritten:
zentrales Bestimmen von Audiokanalinformationen für jeden Audiokanal von einer virtuellen Position zu einer Lautsprecherposition, wobei die virtuelle Position von der Audioquellenposition, die der Audiospur zugeordnet ist, abhängt, so daß für jeden Kanal von jeder virtuellen Position zu jedem Lautsprecher Audiokanalinformationen vorliegen;
zentrales Bestimmen von Synthesesignalen von den virtuellen Positionen für die Lautsprecher;
Übertragen von einem oder mehreren Synthesesignalen sowie zugehörigen Kanalinformationen zu einer Vielzahl von Lautsprechermodulen;
dezentrales Berechnen eines Wiedergabesignals für den Lautsprecher unter Verwendung des einen oder der mehreren Synthesesignale und der zugehörigen Kanalinformationen für einen betroffenen Lautsprecher;
Durchführen einer Signalverarbeitung unter Verwendung einer Digital/Analog-Wandlung, um ein analoges Lautsprechersignal zu erzeugen; und
gemeinsames Wiedergewinnen der analogen Lautsprechersignale durch die Vielzahl von Lautsprechern.
20. Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens nach Anspruch 19, wenn das Programm auf einem Computer abläuft.
PCT/EP2003/013110 2002-11-21 2003-11-21 Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals WO2004047485A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004552700A JP4620468B2 (ja) 2002-11-21 2003-11-21 オーディオ信号を再生するためのオーディオ再生システムおよび方法
DE50303069T DE50303069D1 (de) 2002-11-21 2003-11-21 Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals
EP03782222A EP1576847B1 (de) 2002-11-21 2003-11-21 Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals
US11/099,156 US7706544B2 (en) 2002-11-21 2005-04-05 Audio reproduction system and method for reproducing an audio signal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10254404.2 2002-11-21
DE10254404A DE10254404B4 (de) 2002-11-21 2002-11-21 Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/099,156 Continuation US7706544B2 (en) 2002-11-21 2005-04-05 Audio reproduction system and method for reproducing an audio signal

Publications (1)

Publication Number Publication Date
WO2004047485A1 true WO2004047485A1 (de) 2004-06-03

Family

ID=32318606

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/013110 WO2004047485A1 (de) 2002-11-21 2003-11-21 Audiowiedergabesystem und verfahren zum wiedergeben eines audiosignals

Country Status (5)

Country Link
EP (1) EP1576847B1 (de)
JP (1) JP4620468B2 (de)
AT (1) ATE324021T1 (de)
DE (2) DE10254404B4 (de)
WO (1) WO2004047485A1 (de)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1648198A2 (de) 2004-10-12 2006-04-19 Sony Corporation Verfahren und Anordnung zur Erzeugung eines Audiosignal
WO2006058602A1 (de) * 2004-11-29 2006-06-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur ansteuerung einer beschallungsanlage und beschallungsanlage
WO2006089667A1 (de) * 2005-02-23 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum steuern einer wellenfeldsynthese-rendering-einrichtung
EP1718105A2 (de) * 2005-04-25 2006-11-02 Yamaha Corporation Gruppenlautsprechersystem
WO2006117089A2 (de) * 2005-05-04 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur generierung und bearbeitung von toneffekten in räumlichen tonwiedergabesystemen mittels einer graphischen benutzerschnittstelle
JP2008532374A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオオブジェクトを用いて波面合成レンダラ手段を制御するための装置および方法
JP2008537833A (ja) * 2005-02-23 2008-09-25 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオファイルを記憶するための装置および方法
US8130988B2 (en) 2004-10-18 2012-03-06 Sony Corporation Method and apparatus for reproducing audio signal
EP2451196A1 (de) 2010-11-05 2012-05-09 Thomson Licensing Verfahren und Vorrichtung zur Erzeugung und Decodierung von Schallfelddaten einschließlich Ambisonics-Schallfelddaten höher als drei
CN101129090B (zh) * 2005-02-23 2012-11-07 弗劳恩霍夫应用研究促进协会 用于在多呈现器系统中提供数据的设备和方法
US8358091B2 (en) 2006-10-11 2013-01-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a number of loudspeaker signals for a loudspeaker array which defines a reproduction space
US8724820B2 (en) 2004-09-17 2014-05-13 Sony Corporation Method of reproducing audio signals and playback apparatus therefor
JP2014522155A (ja) * 2011-07-01 2014-08-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的オーディオ信号生成、コーディング、及びレンダリングのためのシステムと方法
US9355632B2 (en) 2011-09-07 2016-05-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and electroacoustic system for reverberation time extension
US9661436B2 (en) 2012-08-29 2017-05-23 Sharp Kabushiki Kaisha Audio signal playback device, method, and recording medium

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10321986B4 (de) * 2003-05-15 2005-07-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Pegel-Korrigieren in einem Wellenfeldsynthesesystem
DE102005008369A1 (de) 2005-02-23 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Simulieren eines Wellenfeldsynthese-Systems
JP5338053B2 (ja) * 2007-09-11 2013-11-13 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
KR100943215B1 (ko) 2007-11-27 2010-02-18 한국전자통신연구원 음장 합성을 이용한 입체 음장 재생 장치 및 그 방법
WO2011015932A1 (en) 2009-08-03 2011-02-10 Imax Corporation Systems and method for monitoring cinema loudspeakers and compensating for quality problems
KR102033071B1 (ko) * 2010-08-17 2019-10-16 한국전자통신연구원 멀티 채널 오디오 호환 시스템 및 방법
JP5590169B2 (ja) * 2013-02-18 2014-09-17 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
JP5743003B2 (ja) * 2014-05-09 2015-07-01 ソニー株式会社 波面合成信号変換装置および波面合成信号変換方法
US9924291B2 (en) * 2016-02-16 2018-03-20 Sony Corporation Distributed wireless speaker system
JP6670259B2 (ja) * 2017-01-26 2020-03-18 日本電信電話株式会社 音響再生装置
CN109068261A (zh) * 2018-07-17 2018-12-21 费迪曼逊多媒体科技(上海)有限公司 一种采用wfs方法进行非实时渲染处理的回放还原方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001023104A2 (en) * 1999-09-29 2001-04-05 1...Limited Method and apparatus to direct sound using an array of output transducers

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001023104A2 (en) * 1999-09-29 2001-04-05 1...Limited Method and apparatus to direct sound using an array of output transducers

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BERKHOUT A J ET AL: "ACOUSTIC CONTROL BY WAVE FIELD SYNTHESIS", JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA, AMERICAN INSTITUTE OF PHYSICS. NEW YORK, US, vol. 93, no. 5, 1 May 1993 (1993-05-01), pages 2764 - 2778, XP000361413, ISSN: 0001-4966 *
HORBACH U ET AL: "Real-time rendering of dynamic scenes using wave field synthesis", PROCEEDINGS 2002 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (CAT. NO.02TH8604), PROCEEDINGS OF IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO (ICME), LAUSANNE, SWITZERLAND, 26-29 AUG. 2002, vol. 1, 26 August 2002 (2002-08-26), pages 517 - 520, XP010604419 *
MARINUS M. BOONE: "Acoustic rendering with wave field synthesis", ACM SIGGRAPH AND EUROGRAPHICS CAMPFIRE: ACOUSTIC RENDERING FOR VIRTUAL ENVIRONMENTS, 29 May 2001 (2001-05-29), pages 1 - 9, XP002271770, Retrieved from the Internet <URL:http://www.bell-labs.com/topic/conferences/campfire/abstracts/boone.pdf> [retrieved on 20040227] *

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8724820B2 (en) 2004-09-17 2014-05-13 Sony Corporation Method of reproducing audio signals and playback apparatus therefor
JP4625671B2 (ja) * 2004-10-12 2011-02-02 ソニー株式会社 オーディオ信号の再生方法およびその再生装置
US7801313B2 (en) 2004-10-12 2010-09-21 Sony Corporation Method and apparatus for reproducing audio signal
EP1648198A2 (de) 2004-10-12 2006-04-19 Sony Corporation Verfahren und Anordnung zur Erzeugung eines Audiosignal
JP2006114945A (ja) * 2004-10-12 2006-04-27 Sony Corp オーディオ信号の再生方法およびその再生装置
KR101177853B1 (ko) * 2004-10-12 2012-08-28 소니 주식회사 오디오 신호의 재생 방법 및 그 재생장치
EP1648198A3 (de) * 2004-10-12 2009-02-25 Sony Corporation Verfahren und Anordnung zur Erzeugung eines Audiosignal
US8130988B2 (en) 2004-10-18 2012-03-06 Sony Corporation Method and apparatus for reproducing audio signal
US9374641B2 (en) 2004-11-29 2016-06-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for driving a sound system and sound system
JP4819823B2 (ja) * 2004-11-29 2011-11-24 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 音響システム駆動装置、駆動方法および音響システム
WO2006058602A1 (de) * 2004-11-29 2006-06-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur ansteuerung einer beschallungsanlage und beschallungsanlage
JP2008522467A (ja) * 2004-11-29 2008-06-26 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 音響システム駆動装置、駆動方法および音響システム
US9609434B2 (en) 2004-11-29 2017-03-28 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for driving a sound system and sound system
US9955262B2 (en) 2004-11-29 2018-04-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for driving a sound system and sound system
JP2008532374A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオオブジェクトを用いて波面合成レンダラ手段を制御するための装置および方法
CN101129090B (zh) * 2005-02-23 2012-11-07 弗劳恩霍夫应用研究促进协会 用于在多呈现器系统中提供数据的设备和方法
US7668611B2 (en) 2005-02-23 2010-02-23 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for controlling a wave field synthesis rendering means
JP2008537833A (ja) * 2005-02-23 2008-09-25 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオファイルを記憶するための装置および方法
JP2008532372A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 波面合成レンダリング手段を制御するための装置および方法
WO2006089667A1 (de) * 2005-02-23 2006-08-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum steuern einer wellenfeldsynthese-rendering-einrichtung
CN102118680B (zh) * 2005-02-23 2015-11-25 弗劳恩霍夫应用研究促进协会 用于在多呈现器系统中提供数据的设备和方法
EP1718105A2 (de) * 2005-04-25 2006-11-02 Yamaha Corporation Gruppenlautsprechersystem
EP1718105A3 (de) * 2005-04-25 2010-06-09 Yamaha Corporation Gruppenlautsprechersystem
US8325933B2 (en) 2005-05-04 2012-12-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device and method for generating and processing sound effects in spatial sound-reproduction systems by means of a graphic user interface
WO2006117089A2 (de) * 2005-05-04 2006-11-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur generierung und bearbeitung von toneffekten in räumlichen tonwiedergabesystemen mittels einer graphischen benutzerschnittstelle
CN101171882B (zh) * 2005-05-04 2010-10-06 弗劳恩霍夫应用研究促进协会 借助于图形用户界面设备来产生并处理声音效果的设备及方法
WO2006117089A3 (de) * 2005-05-04 2007-05-10 Fraunhofer Ges Forschung Vorrichtung und verfahren zur generierung und bearbeitung von toneffekten in räumlichen tonwiedergabesystemen mittels einer graphischen benutzerschnittstelle
US8358091B2 (en) 2006-10-11 2013-01-22 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating a number of loudspeaker signals for a loudspeaker array which defines a reproduction space
EP2451196A1 (de) 2010-11-05 2012-05-09 Thomson Licensing Verfahren und Vorrichtung zur Erzeugung und Decodierung von Schallfelddaten einschließlich Ambisonics-Schallfelddaten höher als drei
JP2016165117A (ja) * 2011-07-01 2016-09-08 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号処理システム及び方法
JP2014522155A (ja) * 2011-07-01 2014-08-28 ドルビー ラボラトリーズ ライセンシング コーポレイション 適応的オーディオ信号生成、コーディング、及びレンダリングのためのシステムと方法
US9355632B2 (en) 2011-09-07 2016-05-31 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and electroacoustic system for reverberation time extension
US9661436B2 (en) 2012-08-29 2017-05-23 Sharp Kabushiki Kaisha Audio signal playback device, method, and recording medium

Also Published As

Publication number Publication date
DE50303069D1 (de) 2006-05-24
ATE324021T1 (de) 2006-05-15
EP1576847A1 (de) 2005-09-21
EP1576847B1 (de) 2006-04-19
JP2006507727A (ja) 2006-03-02
DE10254404A1 (de) 2004-06-17
JP4620468B2 (ja) 2011-01-26
DE10254404B4 (de) 2004-11-18

Similar Documents

Publication Publication Date Title
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
EP1671516B1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
EP1844628B1 (de) Vorrichtung und verfahren zum ansteuern einer wellenfeldsynthese-renderer-einrichtung mit audioobjekten
DE10328335B4 (de) Wellenfeldsyntesevorrichtung und Verfahren zum Treiben eines Arrays von Lautsprechern
EP2080411B1 (de) Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
EP1782658B1 (de) Vorrichtung und verfahren zum ansteuern einer mehrzahl von lautsprechern mittels eines dsp
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
EP1525776B1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
CN101406075B (zh) 用于波场合成系统中混叠校正的设备和方法
EP1723825B1 (de) Vorrichtung und verfahren zum steuern einer wellenfeldsynthese-rendering-einrichtung
DE10321980B4 (de) Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
DE10254470B4 (de) Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2003782222

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11099156

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004552700

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 2003782222

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 2003782222

Country of ref document: EP