WO2004103022A2 - Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal - Google Patents

Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal Download PDF

Info

Publication number
WO2004103022A2
WO2004103022A2 PCT/EP2004/005047 EP2004005047W WO2004103022A2 WO 2004103022 A2 WO2004103022 A2 WO 2004103022A2 EP 2004005047 W EP2004005047 W EP 2004005047W WO 2004103022 A2 WO2004103022 A2 WO 2004103022A2
Authority
WO
WIPO (PCT)
Prior art keywords
time
point
delay
value
weighting factor
Prior art date
Application number
PCT/EP2004/005047
Other languages
English (en)
French (fr)
Other versions
WO2004103022A3 (de
Inventor
Thomas Röder
Thomas Sporer
Sandra Brix
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to JP2006529784A priority Critical patent/JP4698594B2/ja
Priority to DE502004002769T priority patent/DE502004002769D1/de
Priority to EP04732100A priority patent/EP1606975B1/de
Publication of WO2004103022A2 publication Critical patent/WO2004103022A2/de
Publication of WO2004103022A3 publication Critical patent/WO2004103022A3/de
Priority to US11/257,781 priority patent/US7734362B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution

Definitions

  • the present invention relates to wave field synthesis systems and in particular to wave field synthesis systems which allow moving virtual sources.
  • WFS Wave-Field Synthesis
  • Every point that is captured by a wave is the starting point of an elementary wave that propagates in a spherical or circular manner.
  • a large number of loudspeakers that are arranged next to each other can be used to simulate any shape of an incoming wavefront.
  • the audio signals of each loudspeaker must be fed with a time delay and amplitude scaling in such a way that the emitted sound fields of the individual loudspeakers are superimposed correctly. If there are several sound sources, the contribution to each loudspeaker is calculated separately for each source and the resulting signals are added. In a virtual room with reflecting walls, reflections can also be reproduced as additional sources via the loudspeaker array. The effort involved in the calculation therefore depends heavily on the number of sound sources, the flexion properties of the recording room and the number of speakers.
  • the particular advantage of this technique is that a natural spatial sound impression is possible over a large area of the playback room.
  • the direction and distance of sound sources are reproduced very precisely.
  • virtual sound sources can even be positioned between the real speaker array and the listener.
  • wave field synthesis works well for environments whose properties are known, irregularities do occur when the nature changes or when the wave field synthesis is carried out on the basis of an environment condition that does not match the actual nature of the environment.
  • the technique of wave field synthesis can also be used advantageously to complement a visual perception with a corresponding spatial audio perception.
  • the focus in production in virtual studios has been to convey an authentic visual impression of the virtual scene.
  • the acoustic impression that goes with the image is usually imprinted on the audio signal by manual work steps in what is known as post-production, or is classified as too complex and time-consuming to implement and is therefore neglected. This usually leads to a contradiction of the individual sensations, which leads to the fact that the designed space, i. H. the designed scene, which is perceived as less authentic.
  • “Hearing with the ears of the camera” is to be made possible in order to make a scene appear more real.
  • the aim here is to achieve the highest possible correlation between the sound event location in the image and the hearing event location in the surround field.
  • Camera parameters such as Zoom, should be included in the sound design as well as a position of two loudspeakers L and R.
  • tracking data of a virtual studio are written into a file together with an associated time code by the system.
  • picture, sound and time code are recorded on a MAZ.
  • the camdump file is transferred to a computer, which generates control data for an audio workstation and outputs it via a MIDI interface in sync with the image from the MAZ.
  • the actual audio processing such as positioning the sound source in the surround field and inserting early reflections and reverberation takes place within the audio workstation.
  • the signal is processed for a 5.1 surround speaker system.
  • Camera tracking parameters as well as positions of sound sources in the recording setting can be recorded in real film sets. Such data can also be generated in virtual studios.
  • an actor or presenter stands alone in a recording room.
  • he stands in front of a blue wall, which is also known as a blue box or blue panel.
  • a pattern of blue and light blue stripes is applied to this blue wall.
  • the special thing about this pattern is that the stripes are of different widths and thus result in a multitude of stripe combinations. Due to the unique stripe combinations on the blue wall, it is possible to determine exactly in which direction the camera is looking when the post-processing is replaced by a virtual background. With the help of this information, the computer can determine the background for the current camera viewing angle. Sensors on the camera are also evaluated, which record and output additional camera parameters.
  • Typical parameters of a camera which are recorded by means of sensors, are the three degrees of translation x, y, z, the three degrees of rotation, which can also be called roll, tilt, pan. are drawn, and the focal length or the zoom, which is synonymous with the information about the opening angle of the camera.
  • a tracking system can be used that consists of several infrared cameras that determine the position of an infrared sensor attached to the camera. This also determines the position of the camera.
  • a real-time computer can now calculate the background for the current image. The blue hue that the blue background had was then removed from the image, so that the virtual background is imported instead of the blue background.
  • wave field synthesis In the audio area, the technology of wave field synthesis (WFS) can be used to achieve good spatial sound for a large range of listeners.
  • wave field synthesis is based on the principle of Huygens, according to which wave fronts can be shaped and built up by superimposing elementary waves. According to a mathematically exact theoretical description, an infinite number of sources at infinitely small distances would have to be used to generate the elementary waves. In practice, however, many loudspeakers are finally used at a finite distance apart. Each of these loudspeakers is controlled according to the WFS principle with an audio signal from a virtual source, which has a specific delay and a specific level. Levels and delays are usually different for all speakers.
  • a Doppler effect also exists in wave field synthesis or sound field synthesis. It is physically based on the same background as the natural Doppler effect described above. In contrast to the natural Doppler effect, there is no direct path between the transmitter and the receiver in sound field synthesis. Instead, a distinction is made in that there is a primary transmitter and a primary receiver. There is also a secondary transmitter and a secondary receiver. This scenario is illustrated below with the aid of FIG. 7.
  • FIG. 7 shows a virtual source 700 which moves from a first position, which is denoted by a circled “1” in FIG. 7, over time along a movement path 702 to a second position, which in FIG - A circled “2" is shown.
  • three loudspeakers 704 are shown schematically, which are intended to symbolize a wave field synthesis loudspeaker array.
  • a receiver 706 which in the example shown in FIG.
  • the path of movement of the virtual source is a circular path that extends around the receiver that forms the center of this circular path
  • the loudspeakers 704 are not arranged in the center, in that, at the point in time at which the virtual source 700 is in the first position, it is at a first distance ri from a loudspeaker and that the source is then in its second Position has a second distance r 2 to the source.
  • ri is not equal to r 2
  • Ri that is to say the distance of the virtual source from the listener 706, is equal to the distance from the listener 706 to the virtual source at time 2. This means that there is no change in the distance of the virtual source 700 for the receiver 706.
  • the virtual source 700 changes position relative to the loudspeakers 704, since ri is not equal to r 2 .
  • the virtual source represents the primary transmitter, while speakers 704 represent the primary receiver.
  • the loudspeakers 704 represent the secondary transmitter, while the listener 706 finally represents the secondary receiver.
  • the transmission between the primary transmitter and the primary receiver is "virtual." This means that the wave field synthesis algorithms are responsible for the stretching and compression of the wave front of the waveforms.
  • a speaker 704 receives a signal from the wave field synthesis module , there is no audible signal at first, the signal only becomes audible after being output via the loudspeaker, which can result in Doppler effects at various points.
  • each loudspeaker reproduces a signal with a different Doppler effect, depending on its specific position with regard to the moving virtual source, since the loudspeakers are in different positions and the relative movements for each sound - Speakers are different.
  • the listener can also move relative to the speakers.
  • this is a case which is insignificant in practice, in particular in a cinema setting, since the movement of the listener with respect to the loudspeakers will always be a relatively slow movement with a correspondingly small Doppler effect, since the Doppler shift, as is known in the art, is proportional to the relative movement between sender and receiver.
  • the first-mentioned Doppler effect i.e. when the virtual source moves relative to the speakers, can sound relatively natural, but also very unnatural. This depends on the direction in which the movement takes place. If the source moves straight away from the center of the system, there is a more natural effect. Referring to FIG. 7, this would mean that the virtual source 700 e.g. B. would move along the arrow R x away from the listener.
  • the virtual source 700 "circles" the listener 706, as is shown with reference to FIG. 7, there is a very unnatural effect, since the relative movements between the primary source and the primary receiver (loudspeaker) are very strong and also very different within the different primary receivers are what is in stark contrast to nature, where there is no Doppler effect when the source is surrounded by the listener since there is no change in distance between the source and listener.
  • the object of the present invention is to provide an improved concept for calculating a discrete value at a current point in time of a component in a loudspeaker signal, in which artifacts due to Doppler effects are reduced.
  • the present invention is based on the knowledge that Doppler effects can be taken into account since they are a component of the information required for the position identification of a source. If such Doppler effects would have to be completely dispensed with, this could lead to a less than optimal sound experience, since the Doppler effect is natural and would therefore lead to a less than optimal impression if, for example, a virtual source moves towards a listener , but there is no Doppler shift in the audio frequency.
  • a "blending" from one position to another position is carried out to "blur" the Doppler effect, to the extent that it is present, but that its effects lead to no or only reduced artifacts.
  • a discrete value for a current point in time in the cross-fade area is used in the cross-fade area using a sample value of the audio signal valid for the current point in time at the first position, ie at a first point in time, and using a sample value belonging to a current point in time Audio signal of the virtual source at the second position, that is to say at the second point in time.
  • a crossfading preferably takes place in such a way that at the first point in time, that is to say the first position changes and thus the first delay information are valid, a weighting factor for the audio signal which is delayed with the first delay is 100%, while a weighting factor for the the second delay delayed audio signal is 0%, and then, from the first point in time to the second point in time, an opposite change in the two weighting factors is carried out in order to "blend", so to speak, "smoothly" from one position to the other position.
  • the concept according to the invention represents a compromise between, on the one hand, a certain loss of positional Formations, since new position information of the source is no longer taken into account with each new current point in time, but only a position update of the virtual source is carried out in rather rough steps, whereby between the one position of the source and the second position of the source, which takes place some time later is faded.
  • This is done in that the delay is initially carried out for relatively coarse spatial step sizes, ie position information which is relatively far away in time (of course taking into account the speed of the source).
  • the delay change that leads to the above-mentioned virtual Doppler effect between the primary transmitter and the primary receiver is thus smoothed out, that is, continuously transferred from one delay change to another.
  • the cross-fading or "panning” takes place according to the invention by means of a volume scale from one position to the next in order to avoid spatial jumps and thus audible "crackling".
  • the "hard" omission or addition of samples due to a delay change is replaced by a waveform with rounded corners adapted to the hard signal shape, so that the delay changes are taken into account, but that the hard influence on a loudspeaker signal leading to artefacts is caused a change in position of the virtual source is avoided.
  • FIG. 1 shows a block diagram of a device according to the invention
  • FIG. 2 shows a basic circuit diagram of a wave field synthesis environment as can be used for the present invention
  • FIG. 3 shows a more detailed illustration of the wave field synthesis module shown in FIG. 2;
  • FIG. 4c shows a first cross-faded version based on the audio signals shown in FIGS. 4a and 4b in a period between the first point in time at which FIG. 4a is valid and a second point in time at which FIG. 4b is valid;
  • FIG. 4d shows a further cross-fade representation at a later point in time with respect to FIG. 4c, at which the signal shown in FIG. 4b is valid;
  • FIG. 5 shows a time profile of the component Ki j in a loudspeaker signal based on a virtual source i, which is composed of the time profiles of FIGS. 4a to 4d;
  • FIG. 6 shows a detailed illustration of the weighting factors m, n which have been used in the calculation of the audio signals shown in FIGS. 4a to 4d;
  • FIG. 1 shows a classic wave synthesis environment.
  • the center of a wave field synthesis environment is a wave field synthesis module 200, which comprises various inputs 202, 204, 206 and 208 and various outputs 210, 212, 214, 216.
  • Various audio signals for virtual sources are fed to the wave field synthesis module via inputs 202 to 204. So the input 202 receives z. B. an audio signal of the virtual source 1 and associated position information of the virtual source.
  • the audio signal 1 would be e.g. B. the language of an actor who moves from a left side of the screen to a right side of the screen and possibly additionally away from the viewer or towards the viewer.
  • the audio signal 1 would then be the actual language of this actor, while the position information as a function of time represents the current position of the first actor in the recording setting at a certain point in time.
  • the audio signal n would be the language of, for example, another actor who moves the same or different than the first actor.
  • the current position of the other actor to whom the audio signal n is assigned is communicated to the wave field synthesis module 200 by position information synchronized with the audio signal n.
  • a wave field synthesis module feeds a plurality of loudspeakers LSI, LS2, LS3, LSm by outputting loudspeaker signals via the outputs 210 to 216 to the individual loudspeakers.
  • the positions of the individual loudspeakers in a playback setting, such as a cinema, are communicated to the wave field synthesis module 200 via the input 206.
  • the wave field synthesis module 200 In the cinema hall there are many individual loudspeakers grouped around the cinema audience, preferably in arrays are arranged such that there are loudspeakers both in front of the viewer, for example behind the screen, and behind the viewer and to the right and left of the viewer.
  • other inputs can be communicated to the wave field synthesis module 200, such as information about the room acoustics, etc., in order to be able to simulate the actual room acoustics prevailing during the recording set-up in a cinema hall.
  • the loudspeaker signal which is supplied to the loudspeaker LSI via the output 210 will be a superimposition of component signals of the virtual sources, in that the loudspeaker signal for the loudspeaker LSI is a first component which originates from the virtual source 1, a second Component, which goes back to the virtual source 2, as well as an nth component, which goes back to the virtual source n.
  • the individual component signals are linearly superimposed, i.e. added after their calculation, in order to simulate the linear superposition at the ear of the listener, who will hear a linear superposition of the sound sources perceivable in a real setting.
  • the wave field synthesis module 200 has a strongly parallel structure in that, starting from the audio signal for each virtual source and starting from the position information for the corresponding virtual source, delay information Vi and scaling factors SFi are first calculated, which are based on the position information and the position of the loudspeaker under consideration, z. B. depend on the loudspeaker with the order number j, i.e. LSj.
  • a delay information Vi and a scaling factor SFi are calculated on the basis of the position information of a virtual source and the position of the loudspeaker j in question using known algorithms which are implemented in devices 300, 302, 304, 306. are mented.
  • a discrete value AWi (t A ) for the component signal Kij is combined in one for a current time t A ultimately obtained speaker signal calculated. This is done by means 310, 312, 314, 316, as shown schematically in FIG. 3. 3 also shows, so to speak, a "flash light recording" at time t A for the individual component signals.
  • the individual component signals are then summed by a summer 320 to determine the discrete value for the current time t A of the loudspeaker signal for loudspeaker j, which then for the output (e.g. output 214 if speaker j is speaker LS3) can be fed to the speaker.
  • a value that is valid due to a delay and scaling with a scaling factor at a current point in time is first calculated individually for each virtual source, after which all component signals for a loudspeaker are summed due to the different virtual sources. If, for example, there were only one virtual source, the summer would be omitted and the signal present at the output of the summer in FIG. B. correspond to the signal output by the device 310 when the virtual source 1 is the only virtual source.
  • it is assumed that at time t ' 0 there is a delay of 0 sample values has been calculated by the wave field synthesis module.
  • the time of switching is also identified by an arrow 404 in FIG. 4a.
  • the component for the loudspeaker signal on the basis of the virtual source shown in FIGS. 4a and 4b thus consists of the values shown in FIG. 4a from time 0 to time 8 and from time 9 to a later time, at which a change in position is signaled again, from the samples at the current times 9 to 12, which are shown in FIG. 4b.
  • This signal is shown in Fig. 8. It can be seen that at the time of switching, that is to say at the time of switching from one position to the other position, the switching again being designated by 404 in FIG. 8, two samples were omitted.
  • the device according to the invention shown in FIG. 1 is used for artifacts caused by another delay.
  • 1 shows in particular a device for calculating a discrete value for a current point in time of a component Kj in a loudspeaker signal for a loudspeaker j on the basis of a virtual source i in a wave field synthesis system with a wave field synthesis module and a plurality of loudspeakers.
  • the wave field synthesis module is designed to determine, using an audio signal associated with the virtual source and using position information that indicates a position of the virtual source, delay information that indicates how many samples the audio signal is delayed with respect to a time reference should occur in the component.
  • first comprises a device 10 for providing a first delay which is associated with a first position of the virtual source and for providing a second delay which is associated with a second position of the virtual source.
  • first position of the virtual source relates to a first point in time
  • second position of the virtual source relates to a second point in time that is later than the first point in time.
  • the second position differs from the first position.
  • the second position is, for example, the position of the virtual source shown in FIG. 7 with the circled "2", while the first position is the position of the virtual source 700 shown in FIG. 7 with a circled "1".
  • the device 10 for providing thus provides a first delay 12a for the first point in time and a second delay 12b for the second point in time.
  • the device 10 is also designed to output scaling factors for the two times in addition to the delays, as will be explained later.
  • the two delays at the outputs 12a, 12b of the device 10 are a device 14 for determining a value of the audio signal delayed by the first delay, which is supplied via an input 16 to the device 14, for the current time (that via an input 18 can be signaled) and fed to determine a second value of the audio signal delayed by the second delay for the current point in time.
  • the device according to the invention further comprises means 22 for weighting the first value from Ai with a first weighting factor in order to obtain a weighted first value 24a.
  • the device 22 is further operative to determine the second value 20b of A 4 with a second weighting factor n to be weighted, weighted by a second value to obtain 24b.
  • the two weighted values 24a and 24b are fed to a device 26 for summing the two values in order to actually obtain a “faded” discrete value 28 for the current time of the component Kij in a loudspeaker signal for a loudspeaker j on the basis of the virtual source i.
  • the functionality of the device shown in FIG. 1 is shown by way of example with reference to FIGS. 4c, 4d, 5 and 6.
  • neither the value from Ai at the first time 401 nor the value from A 4 at the second time 402 is modified.
  • all values between ti 401 and t 2 402 are modified according to the invention, that is to say values which are assigned to a current time t A which lies between the first time 401 and the second time 402.
  • the graph in FIG. 6, represents the first weighting factor m as a function of the current times between the first time 401 and the second time 402.
  • the first weighting factor m is monotonically falling, while the second weighting factor n is monotonically increasing.
  • the two weighting factors will have a step-like course, since it is only possible to calculate continuously for each sample value, ie not continuously.
  • the step-shaped course will be a course shown in dashed or dotted lines in FIG. 6, which, depending on the number of crossfading events or the predefined computing capacity resources, will be based on the continuous line between the first point in time 401 and the second point in time 402 accordingly often.
  • FIG. 6 For example only, in the embodiment shown in FIG. 6, which is reflected in FIGS. 4c and 4d, two cross-fading events between the first time 401 and the second time 402 were used.
  • the signal with the weighting associated with the first transition time factors m and n, which are shown in a line 600 in FIG. 6, are represented by A 2 in FIG. 4c.
  • the signal associated with the second crossfade instant 602 is shown with A 3 in FIG. 4d.
  • the actual course of time of component K 13 which is ultimately calculated (FIGS. 4a to 4d are only for illustration), is shown in FIG. 5.
  • FIGS. 5 and 6 a new weighting factor is not calculated for each new sample value, that is to say with a period T, but only every three sampling time periods.
  • the sampling values corresponding to these times are therefore taken from FIG. 4a for the current times 0, 1 and 2.
  • the sample values for the points in time 3, 4 and 5 belonging to FIG. 4c are taken.
  • the sampling values belonging to FIG. 4d are taken for the times 6, 7 and 8, while finally the sampling values from FIG. 4 are taken for the times 9, 10 and 11 and further times until a next position change or a next crossfading action 4b which correspond to the current times 9, 10 and 11, respectively.
  • a "finer" smoothing could be achieved if the position update interval PAI shown in FIG. 5 is carried out not only every three samples, as shown in FIG. 5, but for each sample, so that the parameter N in FIG. 5 increases
  • the stair curve symbolizing the first weighting factor m would be approximated closer to the continuous curve, however, the position update interval could alternatively be made even larger than 3, for example that only an update in the middle of the interval between the second time 402 04/103022
  • the current time t A must lie between the first time 401 and the second time 402.
  • the minimum “step size”, that is to say the minimum distance between the first time 401 and the second time 402, will be two sampling periods according to the invention, so that the current time between the first time 401 and the second time 402 is processed with, for example, respective weighting factors of 0.5
  • a rather large step size is preferred, on the one hand for reasons of computing time and on the other hand to produce a cross-fading effect which would no longer occur if the following position has already been reached at the next point in time, which in turn contributes to the unnatural Doppler effect
  • An upper limit for the step size, that is to say for the distance from the first point in time 401 to the second point in time 402 will be that, of course, with increasing distance, more and more position information that would actually be available due to the cross-fading ignored, which in extreme cases will lead to a loss of the localizability of the virtual source for the listener.
  • a linear course was chosen as the “basis” for the staircase curve for the first and second weighting factors.
  • a sinusoidal, square, cubic etc. course could also be used.
  • the corresponding course would have to be used
  • the course of the other weighting factor must be complementary in that the sum of the first and the second weighting factor is always equal to 1 or within a predetermined tolerance range, which extends for example by plus or minus 10% around 1. lies.
  • one option would be to take a curve according to the square of the sine function for the first weighting factor and to take a curve according to the square of the cosine function for the second weighting factor, since the squares of sine and cosine for each argument, ie for every current point in time t A is equal to 1.
  • the scaling factors at the first time 401 and at the second time 402 are both equal to 1. However, this does not necessarily have to be the case. So each sample of the audio signal associated with a virtual source will have a certain amount Bi.
  • the wave field synthesis module would then be effective to calculate a first scaling factor SFi for the first time 401 and a second scaling factor SF 2 for the second time 402.
  • the actual sample value at a current time t A between the first time 401 and the second time 402 would then be as follows:
  • the method according to the invention can be implemented in hardware or in software.
  • the implementation can take place on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which can interact with a programmable computer system in such a way that the method is carried out.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier Carrying out the method according to the invention when the computer program product runs on a computer.
  • the invention can thus be implemented as a computer program with a program code for carrying out the method if the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Amplifiers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Zur Reduzierung von Doppler-Artefakten in der Wellenfeldsynthese aufgrund von Delayänderungen von einem ersten Zeitpunkt zu einem zweiten Zeitpunkt wird zunächst die Verzögerung für den ersten Zeitpunkt und die Verzögerung für den zweiten Zeitpunkt ermittelt (10). Hierauf wird ein Wert eines um die erste Verzögerung verzögerten Audiosignals für den aktuellen Zeitpunkt und ein Wert für das um die zweite Verzögerung verzögerten Audiosignals für den aktuellen Zeitpunkt bestimmt (14). Dann wird der erste Wert mit einem ersten Gewichtungsfaktor gewichtet, und wird der zweite Wert mit einem zweiten Gewichtungsfaktor gemittelt (22), woraufhin die beiden gewichteten Werte aufaddiert (26) werden, um einen diskreten Wert für den aktuellen Zeitpunkt der Komponente in einem Lautsprechersignal für einen Lautsprecher aufgrund einer virtuellen Quelle zu erhalten. Damit wird unter Kenntnis einer zu einem späteren Zeitpunkt vorliegenden Verzögerung eine Überblendung von einer Verzögerung zu ei-ner darauffolgenden Verzögerung erreicht, was unerwünschte Doppler-Artefakte reduziert.

Description

Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem autsprechersignal
Beschreibung
Die vorliegende Erfindung bezieht sich auf Wellenfeldsyn- thesesysteme und insbesondere auf Wellenfeldsynthesesyste- me, die bewegte virtuelle Quellen erlauben.
Es besteht ein steigender Bedarf an neuen Technologien und innovativen Produkten im Bereich der Unterhaltungselektro- nik. Dabei ist es eine wichtige Voraussetzung für den Erfolg neuer multimedialer Systeme, optimale Funktionalitäten bzw. Fähigkeiten anzubieten. Erreicht wird das durch den Einsatz digitaler Technologien und insbesondere der Computertechnik. Beispiele hierfür sind die Applikationen, die einen verbesserten realitätsnahen audiovisuellen Eindruck bieten. Bei bisherigen Audiosystemen liegt ein wesentlicher Schwachpunkt in der Qualität der räumlichen Schallwiedergabe von natürlichen, aber auch von virtuellen Umgebungen.
Verfahren zur mehrkanaligen Lautsprecherwiedergabe von Audiosignalen sind seit vielen Jahren bekannt und standardisiert. Alle üblichen Techniken besitzen den Nachteil, dass sowohl der Aufstellungsort der Lautsprecher als auch die Position des Hörers dem Übertragungsformat bereits einge- prägt sind. Bei falscher Anordnung der Lautsprecher im Bezug auf den Hörer leidet die Audioqualität deutlich. Ein optimaler Klang ist nur in einem kleinen Bereich des Wiedergaberaums, dem so genannten Sweet Spot, möglich.
Ein besserer natürlicher Raumeindruck sowie eine stärkere Einhüllung bei der Audiowiedergabe kann mit Hilfe einer neuen Technologie erreicht werden. Die Grundlagen dieser Technologie, die so genannte Wellenfeldsynthese (WFS; WFS = Wave-Field Synthesis) , wurden an der TU Delft erforscht und erstmals in den späten 80er-Jahren vorgestellt (Berkhout, A.J.; de Vries, D. ; Vogel, P. : Acoustic control by Wave- field Synthesis. JASA 93, 1993).
Infolge der enormen Anforderungen dieser Methode an Rechnerleistung und Übertragungsraten wurde die Wellenfeldsyn- these bis jetzt nur selten in der Praxis angewendet. Erst die Fortschritte in den Bereichen der Mikroprozessortechnik und der Audiocodierung gestatten heute den Einsatz dieser Technologie in konkreten Anwendungen. Erste Produkte im professionellen Bereich werden nächstes Jahr erwartet. In wenigen Jahren sollen auch erste Wellenfeldsynthese- Anwendungen für den Konsumerbereich auf den Markt kommen.
Die Grundidee von WFS basiert auf der Anwendung des Huy- gens' sehen Prinzips der Wellentheorie:
Jeder Punkt, der von einer Welle erfasst wird, ist Aus- gangspunkt einer Elementarwelle, die sich kugelförmig bzw. kreisförmig ausbreitet.
Angewandt auf die Akustik kann durch eine große Anzahl von Lautsprechern, die nebeneinander angeordnet sind (einem so genannten Lautsprecherarray) , jede beliebige Form einer einlaufenden Wellenfront nachgebildet werden. Im einfachsten Fall, einer einzelnen wiederzugebenden Punktquelle und einer linearen Anordnung der Lautsprecher, müssen die Audiosignale eines jeden Lautsprechers mit einer Zeitverzöge- rung und Amplitudenskalierung so gespeist werden, dass sich die abgestrahlten Klangfelder der einzelnen Lautsprecher richtig überlagern. Bei mehreren Schallquellen wird für jede Quelle der Beitrag zu jedem Lautsprecher getrennt berechnet und die resultierenden Signale addiert. In einem virtuellen Raum mit reflektierenden Wänden können auch Reflexionen als zusätzliche Quellen über das Lautsprecherarray wiedergegeben werden. Der Aufwand bei der Berechnung hängt daher stark von der Anzahl der Schallquellen, den Re- flexionseigenschaften des Aufnahmeraums und der Anzahl der Lautsprecher ab.
Der Vorteil dieser Technik liegt im Besonderen darin, dass ein natürlicher räumlicher Klangeindruck über einen großen Bereich des Wiedergaberaums möglich ist. Im Gegensatz zu den bekannten Techniken werden Richtung und Entfernung von Schallquellen sehr exakt wiedergegeben. In beschränktem Maße können virtuelle Schallquellen sogar zwischen dem realen Lautsprecherarray und dem Hörer positioniert werden.
Obgleich die Wellenfeldsynthese für Umgebungen gut funktioniert, deren Beschaffenheiten bekannt sind, treten doch Unregelmäßigkeiten auf, wenn sich die Beschaffenheit ändert bzw. wenn die Wellenfeldsynthese auf der Basis einer Umgebungsbeschaffenheit ausgeführt wird, die nicht mit der tatsächlichen Beschaffenheit der Umgebung übereinstimmt.
Die Technik der Wellenfeldsynthese kann jedoch ebenfalls vorteilhaft eingesetzt werden, um eine visuelle Wahrnehmung um eine entsprechende räumliche Audiowahrnehmung zu ergänzen. Bisher stand bei der Produktion in virtuellen Studios die Vermittlung eines authentischen visuellen Eindrucks der virtuellen Szene im Vordergrund. Der zum Bild passende akustische Eindruck wird in der Regel durch manuelle Arbeitsschritte in der sogenannten Postproduktion nachträglich dem Audiosignal aufgeprägt oder als zu aufwendig und zeitintensiv in der Realisierung eingestuft und daher vernachlässigt. Dadurch kommt es üblicherweise zu einem Widerspruch der einzelnen Sinnesempfindungen, der dazu führt, daß der entworfene Raum, d. h. die entworfene Szene, als weniger authentisch empfunden wird.
In der Fachveröffentlichung „Subjective experiments on the effects of combining spatialized audio and 2D video projec- tion in audio-visual Systems", W. de Bruijn und M. Boone, AES Convention paper 5582, 10. bis 13. Mai 2002, München, werden subjektive Experimente bezüglich der Auswirkungen des Kombinierens von räumlichem Audio und einer zweidimen- sionalen Videoprojektion in audiovisuellen Systemen dargestellt. Insbesondere wird hervorgehoben, daß zwei in einer unterschiedlichen Entfernung zu einer Kamera stehende Spre- eher, die nahezu hintereinander stehen, von einem Betrachter besser verstanden werden können, wenn mit Hilfe der Wellenfeldsynthese die zwei hintereinander stehenden Personen als unterschiedliche virtuelle Schallquellen aufgefaßt und rekonstruiert werden. In diesem Fall hat sich durch subjektive Tests herausgestellt, daß ein Zuhörer die beiden gleichzeitig sprechenden Sprecher getrennt voneinander besser verstehen und unterscheiden kann.
In einem Tagungsbeitrag zum 46. internationalen wissen- schaftlichen Kolloquium in Ilmenau vom 24. bis 27. September 2001 mit dem Titel „Automatisierte Anpassung der Akustik an virtuelle Räume", U. Reiter, F. Melchior und C. Seidel, wird ein Ansatz vorgestellt, Tonnachbearbeitungsprozesse zu automatisieren. Hierzu werden die für die Vi- sualisierung notwendigen Parameter eines Film-Sets, wie z. B. Raumgröße, Textur der Oberflächen oder Kameraposition und Position der Akteure auf ihre akustische Relevanz hin überprüft, woraufhin entsprechende Steuerdaten generiert werden. Diese beeinflussen dann automatisiert die zur Post- Produktion eingesetzten Effekt- und Nachbearbeitungsprozesse, wie z. B. die Anpassung der Sprecherlautstärkenabhängigkeit von der Entfernung zur Kamera oder die Nachhallzeit in Abhängigkeit von Raumgröße und Wandbeschaffenheit. Hierbei besteht das Ziel darin, den visuellen Eindruck einer virtuellen Szene für eine gesteigerte Realitätsempfindung zu verstärken.
Es soll ein „Hören mit den Ohren der Kamera" ermöglicht werden, um eine Szene echter erscheinen zu lassen. Hierbei wird eine möglichst hohe Korrelation zwischen Schallereignisort im Bild und Hörereignisort im Surroundfeld angestrebt. Das bedeutet, daß Schallquellenpositionen ständig einem Bild angepaßt sein sollen. Kameraparameter, wie z. B. Zoom, sollen in die Tongestaltung ebenso mit einbezogen werden wie eine Position von zwei Lautsprechern L und R. Hierzu werden Trackingdaten eines virtuellen Studios zusammen mit einem zugehörigen Timecode vom System in eine Datei geschrieben. Gleichzeitig werden Bild, Ton und Timecode auf einer MAZ aufgezeichnet. Das Camdump-File wird zu einem Computer übertragen, der daraus Steuerdaten für eine Audioworkstation geniert und synchron zum von der MAZ stammenden Bild über eine MIDI-Schnittstelle ausgibt. Die eigent- liehe Audiobearbeitung wie Positionierung der Schallquelle im Surroundfeld und Einfügen von frühen Reflexionen und Nachhall findet innerhalb der Audioworkstation statt. Das Signal wird für ein 5.1-Surround-Lautsprechersystem aufbereitet .
Kamera-Tracking-Parameter genauso wie Positionen von Schallquellen im Aufnahme-Setting können bei realen Film- Sets aufgezeichnet werden. Solche Daten können auch in virtuellen Studios erzeugt werden.
In einem virtuellen Studio steht ein Schauspieler oder Moderator allein in einem Aufnahmeraum. Insbesondere steht er vor einer blauen Wand, die auch als Blue-Box oder Blue- Panel bezeichnet wird. Auf diese Blauwand ist ein Muster aus blauen und hellblauen Streifen aufgebracht. Das besondere an diesem Muster ist, daß die Streifen unterschiedlich breit sind und sich somit eine Vielzahl von Streifen- Kombinationen ergeben. Aufgrund der einmaligen Streifen- Kombinationen auf der Blauwand ist es bei der Nachbearbei- tung, wenn die Blauwand durch einen virtuellen Hintergrund ersetzt wird, möglich, genau zu bestimmen, in welche Richtung die Kamera blickt. Mit Hilfe dieser Informationen kann der Rechner den Hintergrund für den aktuellen Kamerablickwinkel ermitteln. Ferner werden Sensoren an der Kamera aus- gewertet, die zusätzliche Kameraparameter erfassen und ausgeben. Typische Parameter einer Kamera, die mittels Senso- rik erfaßt werden, sind die drei Translationsgrade x, y, z, die drei Rotationsgrade, die auch als Roll, Tilt, Pan be- zeichnet werden, und die Brennweite bzw. der Zoom, der gleichbedeutend mit der Information über den Öffnungswinkel der Kamera ist.
Damit die genaue Position der Kamera auch ohne Bilderkennung und ohne aufwendige Sensortechnik bestimmt werden kann, kann man auch ein Tracking-System einsetzen, das aus mehreren Infrarot-Kameras besteht, die die Position eines an der Kamera befestigten Infrarot-Sensors ermitteln. Somit ist auch die Position der Kamera bestimmt. Mit den von der Sensorik gelieferten Kameraparametern und den von der Bilderkennung ausgewerteten Streifen-Informationen kann ein Echtzeitrechner nun den Hintergrund für das aktuelle Bild berechnen. Hierauf wird der Blau-Farbton, den der blaue Hintergrund hatte, aus dem Bild entfernt, so daß statt dem blauen Hintergrund der virtuelle Hintergrund eingespielt wird.
In der Mehrzahl der Fälle wird ein Konzept verfolgt, bei dem es darum geht, einen akustischen Gesamteindruck der visuell abgebildeten Szenerie zu bekommen. Dieses lässt sich gut mit dem aus der Bildgestaltung stammenden Begriff der „Totalen" umschreiben. Dieser „totale" Klangeindruck bleibt meist über alle Einstellungen in einer Szene konstant, ob- wohl sich der optische Blickwinkel auf die Dinge meist stark ändert. So werden optische Details durch entsprechende Einstellungen herausgehoben oder in den Hintergrund gestellt. Auch Gegenschüsse bei der filmischen Dialoggestaltung werden vom Ton nicht nachvollzogen.
Daher besteht der Bedarf, den Zuschauer akustisch in eine audiovisuelle Szene einzubetten. Hierbei bildet die Leinwand oder Bildfläche die Blickrichtung und den Blickwinkel des Zuschauers. Dies bedeutet, daß der Ton dem Bild in der Form nachgeführt werden soll, daß er stets mit dem gesehenen Bild übereinstimmt. Dies wird insbesondere für virtuelle Studios noch wichtiger, da es typischerweise keine Korrelation zwischen dem Ton der Moderation beispielsweise und der Umgebung gibt, in der sich der Moderator gerade befindet. Um einen audiovisuellen Gesamteindruck der Szene zu bekommen, muß ein zum gerenderten Bild passender Raumeindruck simuliert werden. Eine wesentliche subjektive Eigen- schaff bei einem solchen klanglichen Konzept ist in diesem Zusammenhang der Ort einer Schallquelle, wie ihn ein Betrachter beispielsweise einer Kinoleinwand empfindet.
Im Audiobereich läßt sich also durch die Technik der Wel- lenfeldsynthese (WFS) ein guter räumlicher Klang für eine großen Hörerbereich erzielen. Wie es ausgeführt worden ist, basiert die Wellenfeldsynthese auf dem Prinzip von Huygens, nach welchem sich Wellenfronten durch Überlagerung von Elementarwellen formen und aufbauen lassen. Nach mathematisch exakter theoretischer Beschreibung müßten unendlich viele Quellen in unendlich kleinem Abstand für die Erzeugung der Elementarwellen genutzt werden. Praktisch werden jedoch endlich viele Lautsprecher in einem endlich kleinen Abstand zueinander genutzt. Jeder dieser Lautsprecher wird gemäß dem WFS-Prinzip mit einem Audiosignal von einer virtuellen Quelle, das ein bestimmtes Delay und einen bestimmten Pegel hat, angesteuert. Pegel und Delays sind in der Regel für alle Lautsprecher unterschiedlich.
Im Audiobereich existiert ein sogenannter natürlicher Dopplereffekt. Dieser Dopplereffekt entsteht daraus, daß eine Quelle ein Audiosignal mit bestimmter Frequenz sendet, ein Empfänger dieses Signal empfängt, und eine Bewegung der Quelle relativ zum Empfänger stattfindet. Dies führt auf- grund einer „Dehnung" oder „Stauchung" der akustischen Wellenformen dazu, daß sich die Frequenz des Audiosignals beim Empfänger entsprechend der Bewegung ändert. Üblicherweise ist der Mensch der Empfänger, und er hört diese Frequenzänderung direkt, beispielsweise dann, wenn sich ein Kranken- wagen mit Martinshorn auf einen Mensch zu bewegt und dann an dem Mensch vorbeifährt. Der Mensch wird zum Zeitpunkt, zu dem der Krankenwagen vor ihm ist, das Martinshorn mit einer anderen Tonlage hören als dann, wenn sich der Krankenwagen hinter dem Menschen befindet.
Auch bei der Wellenfeldsynthese bzw. Klangfeldsynthese exi- stiert ein Dopplereffekt. Er basiert physikalisch auf dem gleichen Hintergrund wie der vorstehend beschriebene natürliche Dopplereffekt. Im Gegensatz zum natürlichen Dopplereffekt existiert jedoch bei der Klangfeldsynthese kein direkter Weg zwischen dem Sender und dem Empfänger. Statt dessen wird eine Unterscheidung dahingehend vorgenommen, daß es einen Primärsender und einen Primärempfänger gibt. Darüber hinaus existiert ein Sekundärsender und ein Sekundärempfänger. Dieses Szenario wird nachfolgend anhand von Fig. 7 dargestellt.
Fig. 7 zeigt eine virtuelle Quelle 700, die sich von einer ersten Position, die mit einer eingekreisten „1" in Fig. 7 bezeichnet ist, über der Zeit entlang einer Bewegungsbahn 702 zu einer zweiten Position bewegt, die in Fig. 7 mit ei- ner eingekreisten „2" dargestellt ist. Ferner sind schematisch drei Lautsprecher 704 gezeigt, die ein Wellenfeldsyn- these-Lautsprecherarray symbolisieren sollen. In dem Szenario befindet sich ferner ein Hörer 706, der bei dem in Fig. 7 gezeigten Beispiel derart angeordnet ist, daß die Bewe- gungsbahn der virtuellen Quelle eine Kreisbahn ist, die sich um den Hörer herum, der den Mittelpunkt dieser Kreisbahn bildet, erstreckt. Dagegen sind die Lautsprecher 704 nicht im Mittelpunkt angeordnet, dahingehend, daß zu dem Zeitpunkt, zu dem sich die virtuelle Quelle 700 an der er- sten Position befindet, dieselbe einen ersten Abstand ri von einem Lautsprecher hat, und daß die Quelle dann in ihrer zweiten Position einen zweiten Abstand r2 zu der Quelle hat. Bei dem in Fig. 7 gezeigten Szenario ist ri ungleich r2, während Ri, also die Entfernung der virtuellen Quelle vom Hörer 706 gleich der Entfernung des Hörers 706 zur virtuellen Quelle zum Zeitpunkt 2 ist. Dies bedeutet, daß für den Hörer 706 keine Abstandsänderung der virtuellen Quelle 700 stattfindet. Dagegen findet jedoch sehr wohl eine Ab- Standsänderung der virtuellen Quelle 700 relativ zu den Lautsprechern 704 statt, da ri ungleich r2 ist. Die virtuelle Quelle stellt den Primärsender dar, während die Lautsprecher 704 den Primärempfänger darstellen. Gleichzeitig stellen die Lautsprecher 704 den Sekundärsender dar, während der Hörer 706 schließlich den Sekundärempfänger darstellt.
Bei der Wellenfeldsynthese erfolgt die Übertragung zwischen dem Primärsender und dem Primärempfänger „virtuell". Dies bedeutet, daß die Wellenfeldsynthese-Algorithmen verantwortlich sind für die Dehnung und Stauchung der Wellenfront der Wellenformen. Zu dem Zeitpunkt, zu dem ein Lautsprecher 704 ein Signal vom Wellenfeldsynthesemodul empfängt, exi- stiert zunächst noch kein hörbares Signal. Hörbar wird das Signal erst nach Ausgabe über den Lautsprecher. Damit können an verschiedenen Stellen Dopplereffekte entstehen.
Falls sich die virtuelle Quelle relativ zu den Lautspre- ehern bewegt, gibt jeder Lautsprecher ein Signal mit unterschiedlichem Dopplereffekt wieder, je nach seiner speziellen Position bezüglich der sich bewegenden virtuellen Quelle, da die Lautsprecher auf unterschiedlichen Positionen stehen und die relativen Bewegungen somit für jeden Laut- Sprecher unterschiedlich sind.
Andererseits kann sich auch der Hörer relativ zu den Lautsprechern bewegen. Dies ist jedoch insbesondere in einem Kinosetting ein für die Praxis unbedeutender Fall, da die Bewegung des Hörers bezüglich der Lautsprecher immer eine relativ langsame Bewegung mit einem entsprechend kleinen Dopplereffekt sein wird, da die Dopplerverschiebung, wie es in der Technik bekannt ist, proportional zur Relativbewegung zwischen Sender und Empfänger ist.
Der erstgenannte Dopplereffekt, also wenn sich die virtuelle Quelle relativ zu den Lautsprechern bewegt, kann sich relativ natürlich, aber auch sehr unnatürlich anhören. Dies hängt davon ab, in welcher Richtung die Bewegung stattfindet. Bewegt sich die Quelle nämlich gerade vom Mittelpunkt des Systems weg oder hin, ergibt sich ein eher natürlicher Effekt. Bezug nehmend auf Fig. 7 würde dies bedeuten, daß sich die virtuelle Quelle 700 z. B. entlang des Pfeils Rx von dem Hörer weg bewegen würde.
„Umkreist" jedoch die virtuelle Quelle 700 den Hörer 706, wie es Bezug nehmend auf Fig. 7 dargestellt ist, ergibt sich ein sehr unnatürlicher Effekt, da die Relativbewegungen zwischen Primärquelle und Primärempfänger (Lautsprecher) sehr stark und innerhalb der unterschiedlichen Primärempfänger auch sehr unterschiedlich sind, was in krassem Gegensatz zur Natur steht, wo im Fall der Umkreisung der Quelle zum Hörer kein Dopplereffekt entsteht, da dann keine Abstandsänderung zwischen Quelle und Hörer auftritt.
Die Aufgabe der vorliegenden Erfindung besteht darin, ein verbessertes Konzept zum Berechnen eines diskreten Werts zu einem aktuellen Zeitpunkt einer Komponente in einem Lautsprechersignal zu schaffen, bei dem Artefakte aufgrund von Dopplereffekten reduziert sind.
Diese Aufgabe wird durch eine Vorrichtung gemäß Patentan- Spruch 1, ein Verfahren gemäß Patentanspruch 18 oder ein Computer-Programm gemäß Patentanspruch 19 gelöst.
Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, daß Dopplereffekte berücksichtigt werden können, da sie ein Bestandteil der für die Positionsidentifizierung einer Quelle erforderlichen Informationen sind. Müßte vollständig auf solche Dopplereffekte verzichtet werden, so könnte dies dazu führen, daß ein nicht optimales Klangerlebnis entsteht, da der Doppler-Effekt naturgegeben ist und es somit zu einem nicht optimalen Eindruck führen würde, wenn sich beispielsweise eine virtuelle Quelle auf einen Hörer zu bewegt, jedoch keine Doppler-Verschiebung der Audiofrequenz stattfindet . Andererseits wird erfindungsgemäß jedoch zur „Verschlei- fung" des Dopplereffekts, dahingehend, daß er zwar vorhanden ist, daß jedoch seine Auswirkungen zu keinen oder nur reduzierten Artefakten führen, ein „Überblenden" von einer Position zu einer anderen Position durchgeführt. Beim Stand der Technik werden dann, wenn eine Delayänderung auftritt, also wenn eine Positionsänderung der virtuellen Quelle stattfindet, bei einer verringerten Delay Abtastwerte ein- fach künstlich eingefügt, oder bei einer vergrößerten Delay Abtastwerte einfach weggelassen. Dies führt zu scharfen Sprüngen im Signal. Erfindungsgemäß werden dagegen diese scharfen Sprünge dadurch reduziert, daß ein kontinuierlicher Übergang von einer Position der virtuellen Quelle zu einer anderen Position der virtuellen Quelle erreicht wird. Hierzu wird in einem Überblendungsbereich ein diskreter Wert für einen aktuellen Zeitpunkt in dem Überblendungsbereich unter Verwendung eines für den aktuellen Zeitpunkt gültigen Abtastwerts des Audiosignals an der ersten Positi- on, also zu einem ersten Zeitpunkt, und unter Verwendung eines zu einem aktuellen Zeitpunkt gehörigen Abtastwerts eines Audiosignals der virtuellen Quelle an der zweiten Position, also zu dem zweiten Zeitpunkt, berechnet.
Vorzugsweise findet ein Überblenden dahingehend statt, daß zum ersten Zeitpunkt, zu dem also die ersten Positionsänderungen und damit die ersten Delayinformationen gültig sind, ein Gewichtungsfaktor für das Audiosignal, das mit der ersten Verzögerung verzögert ist, 100% beträgt, während ein Gewichtungsfaktor für das um die zweite Verzögerung verzögerte Audiosignal 0% beträgt, und daß dann, von dem ersten Zeitpunkt zu dem zweiten Zeitpunkt eine gegenläufige Änderung der beiden Gewichtungsfaktoren durchgeführt wird, um gewissermaßen „glatt" von der einen Position zu der anderen Position „überzublenden" .
Das erfindungsgemäße Konzept stellt einen Kompromiß dar zwischen einerseits einem gewissen Verlust an Positionsin- formationen, da nicht mehr mit jedem neuen aktuellen Zeitpunkt neue Positionsinformationen der Quelle berücksichtigt werden, sondern da nur eine Positionsaktualisierung der virtuellen Quelle in eher groben Schritten durchgeführt wird, wobei zwischen der einen Position der Quelle und der um einige Zeit später stattfindenden zweiten Position der Quelle übergeblendet wird. Dies erfolgt dadurch, daß das Delay zunächst für relativ grobe räumliche Schrittweiten, d. h. zeitlich relativ weit entfernte Positionsinformatio- nen (natürlich unter Berücksichtigung der Geschwindigkeit der Quelle) , durchgeführt wird. Damit wird die Delayänderung, die zu dem oben genannten virtuellen Dopplereffekt zwischen dem Primärsender und dem Primärempfänger führt, verschliffen, d. h. kontinuierlich von einer Delayänderung zur anderen übergeführt. Das Überblenden oder „Panning" erfolgt erfindungsgemäß mittels einer Lautstärkeskalierung von einer Position zur nächsten, um räumliche Sprünge, und damit hörbare „Knackser" zu vermeiden. Damit wird das „harte" Weglassen oder Hinzufügen von Abtastwerten aufgrund ei- ner Delayänderung durch eine an die harte Signalform angepaßte Signalform mit abgerundeten Ecken ersetzt, so daß den Delayänderungen zwar Rechnung getragen wird, daß jedoch die zu Artefakten führende harte Einflußnahme auf ein Lautsprechersignal aufgrund einer Positionsänderung der virtuellen Quelle vermieden wird.
Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
Fig. 1 ein Blockschaltbild einer erfindungsgemäßen Vorrichtung;
Fig. 2 ein Prinzipschaltbild einer Wellenfeldsyntheseum- gebung, wie sie für die vorliegende Erfindung einsetzbar ist; Fig. 3 eine detailliertere Darstellung des in Fig. 2 gezeigten Wellenfeldsynthesemoduls;
Fig. 4a einen Zeitverlauf eines diskreten Audiosignals einer virtuellen Quelle zu einem ersten Zeitpunkt mit einer ersten Delay D = 0;
Fig. 4b eine Darstellung desselben Audiosignals wie in Fig. 4a, jedoch mit einer Delay D = 2;
Fig. 4c eine erste überblendete Version aufgrund der in Fig. 4a und Fig. 4b gezeigten Audiosignale in einem Zeitraum zwischen dem ersten Zeitpunkt, zu dem Fig. 4a gültig ist, und einem zweiten Zeit- punkt, zu dem Fig. 4b gültig ist;
Fig. 4d eine weitere Überblendungsdarstellung zu einem bezüglich zu Fig. 4c späteren Zeitpunkt, zu dem das in Fig. 4b dargestellte Signal gültig ist;
Fig. 5 einen Zeitverlauf der Komponente Kij in einem Lautsprechersignal aufgrund einer virtuellen Quelle i, das aus den Zeitverläufen der Fig. 4a bis 4d zusammengesetzt ist;
Fig. 6 eine detaillierte Darstellung der Gewichtungsfaktoren m, n, die bei der Berechnung der in den Fig. 4a bis 4d gezeigten Audiosignale eingesetzt worden sind;
Fig. 7 ein Szenario zur Verdeutlichung eines virtuellen Dopplereffekts; und
Fig. ■ 8 einen Zeitverlauf der Komponente Kij ohne Überblenden.
Bevor detailliert auf Fig. 1 zur Darstellung der erfindungsgemäßen Vorrichtung eingegangen wird, sei zunächst an- hand von Fig. 2 eine klassische Wellen eldsyntheseumgebung dargestellt. Zentrum einer Wellenfeldsyntheseumgebung ist ein Wellenfeldsynthesemodul 200, das diverse Eingänge 202, 204, 206 und 208 sowie diverse Ausgänge 210, 212, 214, 216 umfaßt. Über Eingänge 202 bis 204 werden dem Wellenfeldsynthesemodul verschieden Audiosignale für virtuelle Quellen zugeführt. So empfängt der Eingang 202 z. B. ein Audiosignal der virtuellen Quelle 1 sowie zugeordnete Positionsinformationen der virtuellen Quelle. In einem Kinosetting beispielsweise wäre das Audiosignal 1 z. B. die Sprache eines Schauspielers, der sich von einer linken Seite der Leinwand zu einer rechten Seite der Leinwand und möglicherweise zusätzlich noch vom Zuschauer weg bzw. zum Zuschauer hin bewegt. Das Audiosignal 1 wäre dann die tatsächliche Sprache dieses Schauspielers, während die Positionsinformationen als Funktion der Zeit die zu einem bestimmten Zeitpunkt aktuelle Position des ersten Schauspielers im Aufnahmesetting darstellt. Dagegen wäre das Audiosignal n die Sprache beispielsweise eines weiteren Schauspielers, der sich gleich oder anders als der erste Schauspieler bewegt. Die aktuelle Position des anderen Schauspielers, dem das Audiosignal n zugeordnet ist, wird durch mit dem Audiosignal n synchronisierte Positionsinformationen dem Wellenfeldsynthesemodul 200 mitgeteilt. In der Praxis existieren verschiedene virtuelle Quellen je nach Aufnahmesetting bzw. Studio, wobei das Audiosignal jeder virtuellen Quelle als eigener Audiotrack dem Wellenfeldsynthesemodul 200 zugeführt wird.
Wie es vorstehend dargelegt worden ist, speist ein Wellenfeldsynthesemodul eine Vielzahl von Lautsprechern LSI, LS2, LS3, LSm durch Ausgabe von Lautsprechersignalen über die Ausgänge 210 bis 216 zu den einzelnen Lautsprechern. Dem Wellenfeldsynthesemodul 200 werden über den Eingang 206 die Positionen der einzelnen Lautsprecher in einem Wiedergabe- setting, wie beispielsweise einem Kinosaal mitgeteilt. Im Kinosaal befinden sich um den Kinozuschauer herum gruppiert viele einzelne Lautsprecher, die in Arrays vorzugsweise derart angeordnet sind, daß sich sowohl vor dem Zuschauer, also beispielsweise hinter der Leinwand, als auch hinter dem Zuschauer sowie rechts und links des Zuschauers Lautsprecher befinden. Ferner können dem Wellenfeldsynthesemo- dul 200 noch sonstige Eingaben mitgeteilt werden, wie beispielsweise Informationen über die Raumakustik etc., um in einem Kinosaal die tatsächliche während des Aufnahmeset- tings herrschende Raumakustik simulieren zu können.
Allgemein gesagt wird das Lautsprechersignal, das beispielsweise dem Lautsprecher LSI über den Ausgang 210 zugeführt wird, eine Überlagerung von Komponentensignalen der virtuellen Quellen sein, dahingehend, daß das Lautsprechersignal für den Lautsprecher LSI eine erste Komponente, die auf die virtuelle Quelle 1 zurückgeht, eine zweite Komponente, die auf die virtuelle Quelle 2 zurückgeht, sowie eine n-te Komponente, die auf die virtuelle Quelle n zurückgeht, umfassen. Die einzelnen Komponentensignale werden linear superponiert, also nach ihrer Berechnung addiert, um die linerare Superposition am Ohr des Zuhörers nachzubilden, der in einem realen Setting eine lineare Überlagerung der von ihm wahrnehmbaren Schallquellen hören wird.
Nachfolgend wird Bezug nehmend auf Fig. 3 eine detaillier- tere Ausgestaltung des Wellenfeldsynthesemoduls 200 dargelegt. Das Wellenfeldsynthesemodul 200 hat einen stark parallelen Aufbau dahingehend, daß ausgehend von dem Audiosignal für jede virtuelle Quelle und ausgehend von den Positionsinformationen für die entsprechende virtuelle Quelle zunächst Verzögerungsinformationen Vi sowie Skalierungsfaktoren SFi berechnet werden, die von den Positionsinformationen und der Position des gerade betrachteten Lautsprechers, z. B. dem Lautsprecher mit der Ordnungsnummer j, also LSj , abhängen. Die Berechnung einer Verzögerungsinforma- tion Vi sowie eines Skalierungsfaktors SFi aufgrund der Positionsinformationen einer virtuellen Quelle und der Lage des betrachteten Lautsprechers j geschieht durch bekannte Algorithmen, die in Einrichtungen 300, 302, 304, 306 imple- mentiert sind. Auf der Basis der Verzögerungsinformationen Vi(t) und SFi(t) sowie auf der Basis des der einzelnen virtuellen Quelle zugeordneten Audiosignals ASi(t) wird für einen aktuellen Zeitpunkt tA ein diskreter Wert AWi(tA) für das Komponentensignal Kij in einem letztendlich erhaltenen Lautsprechersignal berechnet. Dies erfolgt durch Einrichtungen, 310, 312, 314, 316, wie sie in Fig. 3 schematisch dargestellt sind. Fig. 3 zeigt ferner gewissermaßen eine „Blitzlichtaufnahme" zum Zeitpunkt tA für die einzelnen Komponentensignale. Die einzelnen Komponentensignale werden dann durch einen Summierer 320 summiert, um den diskreten Wert für den aktuellen Zeitpunkt tA des Lautsprechersignals für den Lautsprecher j zu ermitteln, der dann für den Ausgang (beispielsweise der Ausgang 214, wenn der Lautsprecher j der Lautsprecher LS3 ist) , dem Lautsprecher zugeführt werden kann.
Wie es aus Fig. 3 ersichtlich ist, wird zunächst für jede virtuelle Quelle einzeln ein aufgrund einer Verzögerung und einer Skalierung mit einem Skalierungsfaktor zu einem aktuellen Zeitpunkt gültiger Wert berechnet, wonach sämtliche Komponentensignale für einen Lautsprecher aufgrund der verschiedenen virtuellen Quellen summiert werden. Wäre beispielsweise nur eine virtuelle Quelle vorhanden, so würde der Summierer entfallen, und das am Ausgang des Summierers in Fig. 3 anliegende Signal würde z. B. dem Signal entsprechen, das von der Einrichtung 310 ausgegeben wird, wenn die virtuelle Quelle 1 die einzige virtuelle Quelle ist.
Nachfolgend wird Bezug nehmend auf die Fig. 4a, 4b und 8 die Arbeitsweise der in Fig. 3 dargestellten Vorrichtung erläutert. Fig. 4a zeigt ein beispielhaftes Audiosignal der virtuellen Quelle über der Zeit t', das diskrete Werte hat, die sich von einem Zeitpunkt t' = 0 bis zu einem Zeitpunkt t' = 13 erstrecken. Als Skalierungsfaktor zum Zeitpunkt t' = 0 wird ein Skalierungsfaktor von 1 angenommen. Ferner wird ohne Einschränkung der Allgemeinheit angenommen, daß zum Zeitpunkt t' = 0 eine Verzögerung bzw. Delay von 0 Ab- tastwerten durch das Wellenfeldsynthesemodul berechnet worden ist.
Zu dem ersten Zeitpunkt t' = 0, der in Fig. 4a ferner mit 401 markiert ist, soll somit das in Fig. 4a dargestellte Audiosignal einer virtuellen Quelle gespielt werden, während zu einem zweiten Zeitpunkt 402, der in Fig. 4a gekennzeichnet ist, von dem Audiosignal mit einer Delay D = 0 zu demselben Audiosignal, nun jedoch mit einer Delay D = 2 um- geschaltet werden soll. Der UmschaltZeitpunkt ist ferner durch einen Pfeil 404 in Fig. 4a gekennzeichnet.
Das um D = 2 verschobene Audiosignal von der virtuellen Quelle ist in Fig. 4b als Funktion der Zeit für aktuelle Zeitpunkte von t ' = -2 bis t' = 12 dargestellt. Die Komponente für das Lautsprechersignal auf der Basis der in den Fig. 4a und Fig. 4b dargestellten virtuellen Quelle besteht somit vom Zeitpunkt 0 bis zum Zeitpunkt 8 aus den in Fig. 4a gezeigten Werten und vom Zeitpunkt 9 bis zu einem späte- ren Zeitpunkt, zu dem wieder eine Positionsänderung signalisiert wird, aus den Abtastwerten zu den aktuellen Zeitpunkten 9 bis 12, die in Fig. 4b gezeigt sind. Dieses Signal ist in Fig. 8 dargestellt. Es ist zu sehen, daß zum Zeitpunkt des Umschaltens, also zum Zeitpunkt des Umschal- tens von der einen Position zur anderen Position, wobei das Umschalten in Fig. 8 wieder durch 404 bezeichnet ist, zwei Samples weggelassen wurden. Gemäß dem in Fig. 4a gezeigten Audiosignal hätte nämlich zum Zeitpunkt 9 zwar ein Abtastwert mit einer Amplitude von 1 kommen müssen, jedoch zum Zeitpunkt 10 ein Abtastwert mit einer Amplitude von 0, während jedoch das in Fig. 8 gezeigte Signal zum Zeitpunkt 10 bereits einen Abtastwert mit einer Amplitude von 2 hat, was aufgrund der Delay D = 2 der Fall ist. Dieses Weglassen der zwei Samples führt zu dem eingangs erwähnten virtuellen Dopplereffekt.
Zur Unterdrückung der unerwünschten Eigenschaften bzw. zur Unterdrückung der aufgrund dieses Umschaltens von einer De- lay zu einer anderen Delay bewirkten Artefakte wird die in Fig. 1 gezeigte erfindungsgemäße Vorrichtung eingesetzt. Fig. 1 zeigt insbesondere eine Vorrichtung zum Berechnen eines diskreten Werts für einen aktuellen Zeitpunkt einer Komponente Kj in einem Lautsprechersignal für einen Lautsprecher j aufgrund einer virtuellen Quelle i in einem Wellenfeldsynthesesystem mit einem Wellenfeldsynthesemodul und einer Mehrzahl von Lautsprechern. Insbesondere ist das Wellenfeldsynthesemodul ausgebildet, um unter Verwendung eines Audiosignals, das der virtuellen Quelle zugeordnet ist, und unter Verwendung einer Positionsinformation, die auf eine Position der virtuellen Quelle hinweist, eine Verzögerungsinformation zu ermitteln, die anzeigt, um wie viele Abtastwerte verzögert das Audiosignal bezüglich einer Zeitrefe- renz in der Komponente auftreten soll. Die in Fig. 1 gezeigte Vorrichtung umfaßt zunächst eine Einrichtung 10 zum Bereitstellen einer ersten Verzögerung, die einer ersten Position der virtuellen Quelle zugeordnet ist, und zum Bereitstellen einer zweiten Verzögerung, die einer zweiten Position der virtuellen Quelle zugeordnet ist. Insbesondere bezieht sich die erste Position der virtuellen Quelle auf einen ersten Zeitpunkt, und bezieht sich die zweite Position der virtuellen Quelle auf einen zweiten Zeitpunkt, der später als der erste Zeitpunkt ist. Ferner unterscheidet sich die zweite Position von der ersten Position. Die zweite Position ist beispielsweise die in Fig. 7 mit der umkreisten „2" dargestellte Position der virtuellen Quelle, während die erste Position die in Fig. 7 mit einer umkreisten „1" dargestellte Position der virtuellen Quelle 700 ist.
Die Einrichtung 10 zum Bereitstellen liefert ausgangsseitig somit eine erste Verzögerung 12a für den ersten Zeitpunkt sowie eine zweite Verzögerung 12b für den zweiten Zeit- punkt. Optional ist die Einrichtung 10 ferner ausgebildet, um neben den Verzögerungen auch Skalierungsfaktoren für die zwei Zeitpunkt auszugeben, wie später noch erläutert wird. Die beiden Verzögerungen an den Ausgängen 12a, 12b der Einrichtung 10 werden einer Einrichtung 14 zum Ermitteln eines Werts des um die erste Verzögerung verzögerten Audiosignals, das über einen Eingang 16 der Einrichtung 14 zuge- führt wird, für den aktuellen Zeitpunkt (der über einen Eingang 18 signalisierbar ist) und zum Ermitteins eines zweiten Werts des um die zweite Verzögerung verzögerten Audiosignals für den aktuellen Zeitpunkt zugeführt. Ausgangs- seitig liefert die Einrichtung 14 zum Ermitteln somit zu- nächst einen ersten Wert Aι(ti-) zum Zeitpunk ti- = tA des mit der ersten Verzögerung verzögerten Audiosignals, der in Fig. 1 mit 20a bezeichnet ist, sowie einen zweiten Wert 20b zum aktuellen Zeitpunkt ti = tA des mit der zweiten Verzögerung 12b verzögerten Audiosignals, wobei Ai auf jeden Fall zum ersten Zeitpunkt gültig sein soll, und wobei der A4 auf jeden Fall zum zweiten Zeitpunkt gültig sein soll.
Die erfindungsgemäße Vorrichtung umfaßt ferner eine Einrichtung 22 zum Gewichten des ersten Werts aus Ai mit einem ersten Gewichtungsfaktor, um einen gewichteten ersten Wert 24a zu erhalten. Die Einrichtung 22 ist ferner wirksam, um den zweiten Wert 20b aus A4 mit einem zweiten Gewichtungsfaktor n zu gewichten, um einen zweiten gewichteten Wert 24b zu erhalten. Die beiden gewichteten Werte 24a und 24b werden einer Einrichtung 26 zum Summieren der beiden Werte zugeführt, um tatsächlich einen „überblendeten" diskreten Wert 28 für den aktuellen Zeitpunkt der Komponente Kij in einem Lautsprechersignal für einen Lautsprecher j aufgrund der virtuellen Quelle i zu erhalten.
Nachfolgend wird die Funktionalität der in Fig. 1 gezeigten Vorrichtung beispielhaft anhand der Fig. 4c, 4d, 5 und 6 dargestellt. Bei dem in den Fig. 4a und 4b erläuterten Szenario wird ein Umschalten von einer Delay zu einer anderen Delay nach 10 Abtastwerten gefordert. Der erste Zeitpunkt 401 ist der aktuelle Zeitpunkt tA = 0, während der zweite Zeitpunkt 402 der aktuelle Zeitpunkt tA = 9 ist. Erfindungsgemäß wird weder der Wert aus Ai zum ersten Zeitpunkt 401 noch der Wert aus A4 zum zweiten Zeitpunkt 402 modifiziert. Erfindungsgemäß modifiziert werden jedoch sämtliche Werte zwischen ti 401 und t2 402, also Werte, die einem aktuellen Zeitpunkt tA zugeordnet sind, der zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 liegt. Der aktuelle Zeitpunkt erstreckt sich somit von den Zeitpunkten t' = 1 bis t' = 8 für die nachfolgende beispielhafte Erläuterung.
Mathematisch ausgedrückt ist dies in der Graphik in Fig. 6 dargestellt, die den ersten Gewichtungsfaktor m als Funktion der aktuellen Zeitpunkte zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 darstellt. So ist der er- ste Gewichtungsfaktor m monoton fallend, während der zweite Gewichtungsfaktor n monoton steigend ist. Zum ersten Zeitpunkt 401, als t' = 0, beträgt m = 1 und n = 0. Dagegen betragen zum zweiten Zeitpunkt 402 der erste Gewichtungsfaktor m = 0 und der zweite Gewichtungsfaktor n = 1. Zwi- sehen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 werden die beiden Gewichtungsfaktoren einen treppenartigen Verlauf haben, da nur für jeden Abtastwert, also nicht kontinuierlich gerechnet werden kann. Der treppenför- mige Verlauf wird ein in Fig. 6 gestrichelt bzw. gepunktet dargestellter Verlauf sein, der je nach Anzahl der Überblendereignisse bzw. der vorgegebenen Rechenkapazitätsressourcen zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 entsprechend oft an die kontinuierliche Linie angelehnt sein wird.
Lediglich beispielhaft wurde bei dem in Fig. 6 dargestellten Ausführungsbeispiel, das sich in den Fig. 4c und 4d wiederspiegelt, zu zwei Überblendereignissen zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 gegrif- fen. Das erste Überblendereignis findet zum aktuellen Zeitpunkt tft = 3 statt, während das zweite Überblendereignis zum aktuellen Zeitpunkt tA = 6 stattfindet. Das Signal mit den zum ersten Überblendzeitpunkt zugehörigen Gewichtungs- faktoren m und n, die in einer Zeile 600 in Fig. 6 gezeigt sind, ist mit A2 in Fig. 4c dargestellt. Ferner ist das zum zweiten Überblendzeitpunkt 602 zugehörige Signal mit A3 in Fig. 4d gezeigt. Der tatsächliche Zeitverlauf der Komponen- te K13, der letztendlich berechnet wird (die Fig. 4a bis 4d dienen lediglich der Veranschaulichung) ist in Fig. 5 dargestellt. Bei dem in Fig. 4a bis 4d, Fig. 5 und Fig. 6 gezeigten Ausführungsbeispiel wird nicht zu jedem neuen Abtastwert, also mit einer Periodendauer T ein neuer Gewich- tungsfaktor berechnet, sondern lediglich alle drei Abtastzeitdauern. Daher wird für die aktuellen Zeitpunkt 0, 1 und 2 die diesen Zeitpunkten entsprechenden Abtastwerte von Fig. 4a genommen. Für die aktuellen Zeitpunkte 3, 4 und 5 werden die zu Fig. 4c gehörenden Abtastwerte für die Zeit- punkte 3, 4 und 5 genommen. Ferner werden für die Zeitpunkte 6, 7 und 8 die zu Fig. 4d gehörigen Abtastwerte genommen, während schließlich für die Zeitpunkte 9, 10 und 11 sowie weitere Zeitpunkte bis zu einer nächsten Positionsänderung bzw. bis zu einer nächsten Überblendaktion die Ab- tastwerte von Fig. 4b genommen werden, die den aktuellen Zeitpunkten 9, 10 bzw. 11 entsprechen. Ein Vergleich von Fig. 5 mit Fig. 8 offenbart, daß die scharfe Syrnmetrie um den Abtastwert zum aktuellen Zeitpunkt tA = 9 entspannt ist, dahingehend, daß das „Weglassen" von zwei Samples, das zu diesem Artefakt in Fig. 8 führte, in Fig. 5 entsprechend „verschliffen" ist.
Eine „feinere" Verschleifung könnte dann erreicht werden, wenn das in Fig. 5 gezeigte Positionsaktualisierungsinter- vall PAI nicht nur wie in Fig. 5 gezeigt alle drei Abtastwerte durchgeführt wird, sondern zu jedem Abtastwert, so daß der Parameter N in Fig. 5 zu 1 werden würde. In diesem Fall würde die den ersten Gewichtungsfaktor m symbolisierende Treppenkurve entsprechend enger an die kontinuierli- ehe Kurve angenähert sein. Alternativ könnte jedoch auch das Positionsaktualisierungsintervall noch größer als 3 gemacht werden, beispielsweise daß nur eine Aktualisierung in der Mitte des Intervalls zwischen dem zweiten Zeitpunkt 402 04/103022
und dem erstem Zeitpunkt 401 durchgeführt wird, so daß in der ersten Hälfte des Intervalls, also für die aktuellen Zeitpunkte tA = 1 bis 4 m = 1 und n = 0 ist, während für die zweite Hälfte des entsprechenden Intervalls, also für die aktuellen Zeitpunkte 5, 6, 7 und 8 m und n gleich 0,5 sein würden, derart, daß dann zum zweiten Zeitpunkt 402, also zum aktuellen Zeitpunkt tA = 9, n zu 1 wird und m zu 0 wird. Die Auswahl, ob zu jedem Abtastwert eine Überblendung durchgeführt wird, oder ob nur alle N Abtastwerte eine Überblendung, also eine Positionsaktualisierung durchgeführt wird, kann von Fall zu Fall unterschiedlich sein. Sie kann insbesondere davon abhängen, wie schnell sich eine virtuelle Quelle bewegt. Bewegt sie sich sehr langsam, so genügt es, einen relativ hohen Parameter N zu verwenden, also nur nach einer relativ hohen Anzahl von Abtastwerten eine neue Positionsaktualisierung durchzuführen, also eine neue „Stufe" in Fig. 6 zu erzeugen, während im entgegengesetzten Fall, also dann, wenn sich die Quelle schnell bewegt, eine eher häufigere Positionsaktualisierung bevorzug wird.
Bei dem in den Fig. 4a bis 4d dargestellten Ausführungsbeispiel wurde davon ausgegangen, daß die ersten Positionsinformationen für die virtuelle Quelle, die betrachtet wird, zum ersten Zeitpunkt 401 vorlagen, während die zweiten Positionsinformationen für die virtuelle Quelle zum zweiten Zeitpunkt 402 vorlagen, der sich um neun Abtastwerte hinter dem ersten Zeitpunkt befindet. Je nach Implementierung kann es jedoch sein, daß für jeden Abtastwert eine eigene Posi- tionsinformation vorliegt, bzw. daß eine solche Positionsinformation ohne weiteres zur Interpolation gewonnen werden kann. So wurde bisher die Bewegung der Quelle für jede Zwischenposition in sehr kleinen räumlichen und damit zeitlichen Schritten berechnet, um ein hörbares Knacksen im Au- diosignal von dem Umschalten von einer Delay zu einer anderen Delay zu unterbinden, wobei dieses Umschalten nur dann unterbunden werden kann, wenn die Abtastwerte vor und nach dem Umschalten nicht zu stark auseinanderfielen. Für das erfindungsgemäße Überblenden muß jedoch der aktuelle Zeitpunkt tA zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 liegen. Die minimale „Schrittweite", also der minimale Abstand zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 wird erfindungsgemäß zwei Abtastperioden betragen, so daß der aktuelle Zeitpunkt zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 mit beispielsweise jeweiligen Gewichtungsfaktoren von 0,5 bearbeitet werden kann. Für die Praxis wird jedoch eine eher größere Schrittweite vorgezogen, zum einen aus Rechenzeitgründen und zum anderen um einen Überblendeffekt zu erzeugen, der dann nicht mehr auftreten würde, wenn zum nächsten Zeitpunkt schon die Folgeposition erreicht ist, was wiederum zum unnatürlichen Dopplereffekt bei der herkömmlichen Wellenfeldsynthese führen würde. Eine obere Grenze für die Schrittweite, also für den Abstand vom ersten Zeitpunkt 401 zum zweiten Zeitpunkt 402 wird darin bestehen, daß natürlich mit größer werdendem Abstand immer mehr Positions- Informationen, die eigentlich bereitstehen würden, aufgrund der Überblendung ignoriert werden, was im Extremfall zu einem Verlust der Lokalisierbarkeit der virtuellen Quelle für den Zuhörer führen wird. Daher werden Schrittweiten im mittleren Bereich bevorzugt, die zusätzlich je nach Ausfüh- rungsform von der Geschwindigkeit der virtuellen Quelle abhängen können, um eine adaptive Schrittweitensteuerung zu realisieren.
Bei dem in Fig. 6 gezeigten Ausführungsbeispiel wurde als „Basis" für die Treppenkurve für den ersten und den zweiten Gewichtungsfaktor ein linearer Verlauf gewählt. Alternativ könnte jedoch auch ein sinusförmiger, quadratischer, kubischer etc. Verlauf verwendet werden. In diesem Fall müßte der entsprechende Verlauf des anderen Gewichtungsfaktors komplementär dahingehend sein, daß die Summe des ersten und des zweiten Gewichtungsfaktors immer gleich 1 ist bzw. innerhalb eines vorbestimmten Toleranzbereichs, der sich beispielsweise um plus oder minus 10% um 1 herum erstreckt, liegt. Eine Option wäre beispielsweise für den ersten Gewichtungsfaktor einen Verlauf gemäß dem Quadrat der Sinusfunktion zu nehmen und für den zweiten Gewichtungsfaktor einen Verlauf gemäß dem Quadrat der Cosinusfunktion zu neh- men, da die Quadrate von Sinus und Cosinus für jedes Argument, also für jeden aktuellen Zeitpunkt tA, gleich 1 ist.
In den Fig. 4a bis 4d wurde bisher angenommen, daß die Skalierungsfaktoren zum ersten Zeitpunkt 401 und zum zweiten Zeitpunkt 402 beide gleich 1 sind. Dies muß jedoch nicht unbedingt so sein. So wird jeder Abtastwert des Audiosignals, das einer virtuellen Quelle zugeordnet ist, einen bestimmten Betrag Bi haben. Das Wellenfeldsynthesemodul wäre dann wirksam, einen ersten Skalierungsfaktor SFi für den ersten Zeitpunkt 401 und einen zweiten Skalierungsfaktor SF2 für den zweiten Zeitpunkt 402 zu berechnen. Der tatsächliche Abtastwert zu einem aktuellen Zeitpunkt tA zwischen dem ersten Zeitpunkt 401 und dem zweiten Zeitpunkt 402 würde dann folgendermaßen lauten:
AWi B(tA) * m * SFi + B(tA) * n + SF2.
Aus der vorstehenden Gleichung kann aus Vereinfachungsgründen nunmehr die Multiplikation eines Werts des Audiosignals mit zwei Gewichtungsfaktoren durch eine Multiplikation des Werts mit dem Produkt aus den beiden Gewichtungsfaktoren ersetzt werden.
Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren, wie es anhand von Fig. 1 dargestellt worden ist, in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmier- baren Computersystem zusammenwirken können, daß das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführen des erfindungsgemäßen Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer- Programm auf einem Computer abläuft.

Claims

Patentansprüche
Vorrichtung zum Berechnen eines diskreten Werts (28) für einen aktuellen Zeitpunkt (tA) einer Komponente (Kij) in einem Lautsprechersignal (322) für einen Lautsprecher (j) aufgrund einer virtuellen Quelle (i) in einem Wellenfeldsynthesesystem mit einem Wellen- feldsynthesemodul und einer Mehrzahl von Lautsprechern (LSI, LS2, LS3, LSm) , wobei das Wellenfeldsynthesemodul ausgebildet ist, um unter Verwendung eines Audiosignals (16), das der virtuellen Quelle zugeordnet ist, und unter Verwendung einer Positionsinformation, die auf eine Position der virtuellen Quelle hinweist, eine Verzögerungsinformation zu ermitteln, die anzeigt, um viele Abtastwerte verzögert das Audiosignal bezüglich einer Zeitreferenz in der Komponente auftreten soll, mit folgenden Merkmalen:
einer Einrichtung (10) zum Bereitstellen einer ersten Verzögerung (12a) , die einer ersten Position der virtuellen Quelle zu einem ersten Zeitpunkt zugeordnet ist, und zum Bereitstellen einer zweiten Verzögerung (12b) , die einer zweiten Position der virtuellen Quelle zu einem zweiten späteren Zeitpunkt zugeordnet ist, wobei sich die zweite Position von der ersten Position unterscheidet, und wobei der aktuelle Zeitpunkt (tA) zwischen dem ersten Zeitpunkt (400) und dem zweiten Zeitpunkt (402) liegt;
einer Einrichtung (14) zum Ermitteln eines Werts des um die erste Verzögerung verzögerten Audiosignals (AI) für den aktuellen Zeitpunkt (tA) und zum Ermitteln ei- nes zweiten Werts des um die zweite Verzögerung verzögerten Audiosignals (A4) für den aktuellen Zeitpunkt (tA) ; einer Einrichtung (22) zum Gewichten des ersten Werts mit einem ersten Gewichtungsfaktor (m) , um einen ersten gewichteten Wert (24a) zu erhalten, und des zweiten Werts mit einem zweiten Gewichtungsfaktor (n) , um einen zweiten gewichteten Wert (24b) zu erhalten; und
einer Einrichtung zum Summieren (26) des ersten gewichteten Werts (24a) und des zweiten gewichteten Werts (24b), um den diskreten Wert (28) für den aktu- eilen Zeitpunkt (tA) zu erhalten.
2. Vorrichtung nach Anspruch 1, bei der der erste Gewichtungsfaktor (m) und der zweite Gewichtungsfaktor (n) für Werte zwischen dem ersten und dem zweiten Zeit- punkt (400, 402) so eingestellt sind, daß eine Überblendung von dem um die erste Verzögerung verzögerten Audiosignal in das um die zweite Verzögerung verzögerte Audiosignal stattfindet.
3. Vorrichtung nach Anspruch 1 oder 2, bei der der erste Gewichtungsfaktor (m) zwischen dem ersten Zeitpunkt (400) und dem zweiten Zeitpunkt (402) abnimmt, und bei dem der zweite Gewichtungsfaktor zwischen dem ersten Zeitpunkt (400) und dem zweiten Zeitpunkt (402) an- steigt.
4. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der der erste Gewichtungsfaktor zu dem ersten Zeitpunkt gleich 1 ist und zu dem zweiten Zeitpunkt gleich 0 ist, und bei der der zweite Gewichtungsfaktor (n) zu dem ersten Zeitpunkt gleich 0 und zu dem zweiten Zeitpunkt gleich 1 ist.
5. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der der erste und der zweite Gewichtungsfaktor von einer Differenz zwischen dem aktuellen Zeitpunkt und dem ersten Zeitpunkt (400) oder dem zweiten Zeitpunkt (402) abhängen.
6. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der der erste Gewichtungsfaktor von dem ersten Zeitpunkt zu dem zweiten Zeitpunkt monoton fällt, und der zweite Gewichtungsfaktor von dem ersten Zeitpunkt zu dem zweiten Zeitpunkt monoton steigt.
7. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der eine Summe aus dem ersten Gewichtungsfaktor und dem zweiten Gewichtungsfaktor innerhalb eines vorbestimmten Toleranzbereichs liegt, der sich um einen definierten Wert erstreckt.
8. Vorrichtung nach Anspruch 7, bei der der vorbestimmte Toleranzbereich plus oder minus 10% beträgt.
9. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das Audiosignal eine Folge von zeitdiskreten Werten ist, die jeweils um eine Abtastperiode (TA) beabstandet sind,
bei der der erste Zeitpunkt und der zweite Zeitpunkt um mehr als eine Abtastperiode voneinander beabstandet sind.
10. Vorrichtung nach Anspruch 9,
bei der der erste Zeitpunkt und der zweite Zeitpunkt fest eingestellt sind.
11. Vorrichtung nach Anspruch 9, bei der die Einrichtung (10) zum Bereitstellen der ersten und der zweiten Verzögerung ausgebildet ist, um einen zeitlichen Abstand des ersten Zeitpunkts und des zweiten Zeitpunkts ab- hängig von den Positionsinformationen einzustellen, so daß der zeitliche Abstand größer ist, wenn sich die virtuelle Quelle mit einer kleineren Geschwindigkeit bewegt, und daß der zeitliche Abstand kleiner ist, wenn sich die virtuellen Quelle mit einer größeren Geschwindigkeit bewegt.
12. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der ein zeitlicher Abstand zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt N Abtastperioden beträgt, und
bei der die Einrichtung (22) zum Gewichten ausgebildet ist, um für eine Anzahl von M aufeinanderfolgenden aktuellen Abtastwerten denselben ersten Gewichtungsfaktor und denselben zweiten Gewichtungsfaktor zu verwenden, wobei M kleiner als N und größer oder gleich 2 ist.
13. Vorrichtung nach einem der vorhergehenden Ansprüche,
bei der die Einrichtung (22) zum Gewichten ausgebildet ist, um für jeden aktuellen Abtastwert einen aktuellen ersten Gewichtungsfaktor und einen aktuellen zweiten Gewichtungsfaktor zu berechnen, so daß der erste und der zweite Gewichtungsfaktor für jeden aktuellen Abtastwert unterschiedlich zu einem ersten und einem zweiten Gewichtungsfaktor sind, die für einen ermit- telten vorhergehenden Abtastwert bestimmt worden sind.
14. Vorrichtung nach einem der vorhergehenden Ansprüche,
bei der die Einrichtung (10) zum Bereitstellen ausge- bildet ist, um die die zweite Verzögerung für den zweiten Zeitpunkt basierend auf einer oder mehrerer Verzögerungen für vorausgehende Zeitpunkte zu schätzen.
15. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Positionsinformationen der virtuellen Quelle gemäß einem Zeitraster dem Audiosignal für die virtuelle Quelle zugeordnet sind, wobei der erste und der zweite Zeitpunkt um eine Dauer voneinander beabstandet sind, die länger als ein zeitlicher Abstand zwischen zwei Rasterpunkten des Zeitrasters ist.
16. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der mehrere Audiosignale für mehrere virtuelle Quellen vorhanden sind, bei der für jede virtuelle Quelle ein Komponentensignal berechnet wird, und bei der alle Komponentensignale für einen Lautsprecher ad- diert werden, um das Lautsprechersignal für den Lautsprecher zu erhalten.
17. Vorrichtung nach einem der vorhergehenden Ansprüche,
bei der das Wellenfeldsynthesemodul ausgebildet ist, um neben den Verzögerungsinformationen auch Skalierungsinformationen zu berechnen, die anzeigen, mit welchem Skalierungsfaktor das der virtuellen Quelle zugeordnete Audiosignal zu skalieren ist, und
bei der die Einrichtung (22) zum Gewichten ausgebildet ist, um den ersten gewichteten Wert (24a) als Produkt aus dem Wert des Audiosignals für den aktuellen Zeitpunkt und einem ersten Skalierungsfaktor für den aktu- eilen Zeitpunkt und dem ersten Gewichtungsfaktor zu berechnen, und
bei der die Einrichtung (22) zum Gewichten ferner ausgebildet ist, um den zweiten gewichteten Wert als Pro- dukt aus dem Wert des Audiosignals für den aktuellen Zeitpunkt, aus dem zweiten Skalierungsfaktor für den zweiten Zeitpunkt und den zweiten Gewichtungsfaktor zu berechnen.
18. Verfahren zum Berechnen eines diskreten Werts (28) für einen aktuellen Zeitpunkt (tA) einer Komponente (Kij) in einem Lautsprechersignal (322) für einen Lautsprecher (j) aufgrund einer virtuellen Quelle (i) in einem Wellenfeldsynthesesystem mit einem Wellenfeldsynthesemodul und einer Mehrzahl von Lautsprechern (LSI, LS2, LS3, LSm) , wobei das Wellenfeldsynthesemodul ausgebildet ist, um unter Verwendung eines Audio- Signals (16), das der virtuellen Quelle zugeordnet ist, und unter Verwendung einer Positionsinformation, die auf eine Position der virtuellen Quelle hinweist, eine Verzögerungsinformation zu ermitteln, die anzeigt, um viele Abtastwerte verzögert das Audiosignal bezüglich einer Zeitreferenz in der Komponente auftreten soll, mit folgenden Schritten:
Bereitstellen (10) einer ersten Verzögerung (12a), die einer ersten Position der virtuellen Quelle zu einem ersten Zeitpunkt zugeordnet ist, und zum Bereitstellen einer zweiten Verzögerung (12b) , die einer zweiten Position der virtuellen Quelle zu einem zweiten späteren Zeitpunkt zugeordnet ist, wobei sich die zweite Position von der ersten Position unterscheidet, und wobei der aktuelle Zeitpunkt (tA) zwischen dem ersten Zeitpunkt (400) und dem zweiten Zeitpunkt (402) liegt;
Ermitteln (14) eines Werts des um die erste Verzögerung verzögerten Audiosignals (AI) für den aktuellen Zeitpunkt (tA) und zum Ermitteln eines zweiten Werts des um die zweite Verzögerung verzögerten Audiosignals (A4) für den aktuellen Zeitpunkt (tA) ;
Gewichten (22) des ersten Werts mit einem ersten Ge- wichtungsfaktor (m) , um einen ersten gewichteten Wert (24a) zu erhalten, und des zweiten Werts mit einem zweiten Gewichtungsfaktor (n) , um einen zweiten gewichteten Wert (24b) zu erhalten; und
Summieren (26) des ersten gewichteten Werts (24a) und des zweiten gewichteten Werts (24b) , um den diskreten Wert (28) für den aktuellen Zeitpunkt (tA) zu erhalten.
9. Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens nach Patentanspruch 18, wenn das Programm auf einem Computer abläuft.
PCT/EP2004/005047 2003-05-15 2004-05-11 Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal WO2004103022A2 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006529784A JP4698594B2 (ja) 2003-05-15 2004-05-11 スピーカ信号内のコンポーネントの離散値を算出する装置および方法
DE502004002769T DE502004002769D1 (de) 2003-05-15 2004-05-11 Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal
EP04732100A EP1606975B1 (de) 2003-05-15 2004-05-11 Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal
US11/257,781 US7734362B2 (en) 2003-05-15 2005-10-25 Calculating a doppler compensation value for a loudspeaker signal in a wavefield synthesis system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10321980.3 2003-05-15
DE10321980A DE10321980B4 (de) 2003-05-15 2003-05-15 Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/257,781 Continuation US7734362B2 (en) 2003-05-15 2005-10-25 Calculating a doppler compensation value for a loudspeaker signal in a wavefield synthesis system

Publications (2)

Publication Number Publication Date
WO2004103022A2 true WO2004103022A2 (de) 2004-11-25
WO2004103022A3 WO2004103022A3 (de) 2005-02-17

Family

ID=33440864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2004/005047 WO2004103022A2 (de) 2003-05-15 2004-05-11 Vorrichtung und verfahren zum berechnen eines diskreten werts einer komponente in einem lautsprechersignal

Country Status (8)

Country Link
US (1) US7734362B2 (de)
EP (1) EP1606975B1 (de)
JP (1) JP4698594B2 (de)
KR (1) KR100674814B1 (de)
CN (1) CN100553372C (de)
AT (1) ATE352971T1 (de)
DE (2) DE10321980B4 (de)
WO (1) WO2004103022A2 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006133812A1 (de) * 2005-06-16 2006-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle
WO2007101498A1 (de) * 2006-03-06 2007-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
JP2008532374A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオオブジェクトを用いて波面合成レンダラ手段を制御するための装置および方法
JP2008532372A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 波面合成レンダリング手段を制御するための装置および方法
US7809453B2 (en) 2005-02-23 2010-10-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for simulating a wave field synthesis system
US7813826B2 (en) 2005-02-23 2010-10-12 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for storing audio files
US7962231B2 (en) 2005-02-23 2011-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for providing data in a multi-renderer system
US8160280B2 (en) 2005-07-15 2012-04-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for controlling a plurality of speakers by means of a DSP

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031891B2 (en) * 2005-06-30 2011-10-04 Microsoft Corporation Dynamic media rendering
DE102005033239A1 (de) * 2005-07-15 2007-01-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Steuern einer Mehrzahl von Lautsprechern mittels einer graphischen Benutzerschnittstelle
DE102007059597A1 (de) * 2007-09-19 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Eine Vorrichtung und ein Verfahren zur Ermittlung eines Komponentensignals in hoher Genauigkeit
KR101407200B1 (ko) * 2009-11-04 2014-06-12 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 가상 소스와 연관된 오디오 신호를 위한 라우드스피커 배열의 라우드스피커들에 대한 구동 계수를 계산하는 장치 및 방법
JP2011124723A (ja) * 2009-12-09 2011-06-23 Sharp Corp オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び当該プログラムを記録した記録媒体
JP5361689B2 (ja) * 2009-12-09 2013-12-04 シャープ株式会社 オーディオデータ処理装置、オーディオ装置、オーディオデータ処理方法、プログラム及び記録媒体
ES2909532T3 (es) 2011-07-01 2022-05-06 Dolby Laboratories Licensing Corp Aparato y método para renderizar objetos de audio
US9357293B2 (en) * 2012-05-16 2016-05-31 Siemens Aktiengesellschaft Methods and systems for Doppler recognition aided method (DREAM) for source localization and separation
WO2013181272A2 (en) * 2012-05-31 2013-12-05 Dts Llc Object-based audio system using vector base amplitude panning
CN107393523B (zh) * 2017-07-28 2020-11-13 深圳市盛路物联通讯技术有限公司 一种噪音监控方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001023104A2 (en) * 1999-09-29 2001-04-05 1...Limited Method and apparatus to direct sound using an array of output transducers

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5052685A (en) * 1989-12-07 1991-10-01 Qsound Ltd. Sound processor for video game
JPH04132499A (ja) 1990-09-25 1992-05-06 Matsushita Electric Ind Co Ltd 音像制御装置
JP2882449B2 (ja) 1992-12-18 1999-04-12 日本ビクター株式会社 テレビゲーム用の音像定位制御装置
US5598478A (en) * 1992-12-18 1997-01-28 Victor Company Of Japan, Ltd. Sound image localization control apparatus
JPH06245300A (ja) 1992-12-21 1994-09-02 Victor Co Of Japan Ltd 音像定位制御装置
US5495576A (en) * 1993-01-11 1996-02-27 Ritchey; Kurtis J. Panoramic image based virtual reality/telepresence audio-visual system and method
GB2294854B (en) * 1994-11-03 1999-06-30 Solid State Logic Ltd Audio signal processing
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001023104A2 (en) * 1999-09-29 2001-04-05 1...Limited Method and apparatus to direct sound using an array of output transducers

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BERKHOUT A J ET AL: "ACOUSTIC CONTROL BY WAVE FIELD SYNTHESIS" JOURNAL OF THE ACOUSTICAL SOCIETY OF AMERICA, AMERICAN INSTITUTE OF PHYSICS. NEW YORK, US, Bd. 93, Nr. 5, 1. Mai 1993 (1993-05-01), Seiten 2764-2778, XP000361413 ISSN: 0001-4966 *
S. SPORS, H. TEUTSCH, R. RABENSTEIN: "High-Quality Acoustic Rendering with Wave Field Synthesis" VISION, MODELING, AND VISUALIZATION 2002, [Online] 20. November 2002 (2002-11-20), - 22. November 2002 (2002-11-22) Seiten 101-108, XP002306015 ERLANGEN, GERMANY Gefunden im Internet: URL:http://www.lnt.de/LMS/research/project s/WFS/index.php?lang=eng> [gefunden am 2004-11-15] *
SPORS S ET AL: "LISTENING ROOM COMPENSATION FOR WAVE FIELD SYNTHESIS" IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, XX, XX, Bd. 1, 9. Juli 2003 (2003-07-09), Seiten I-725, XP008036698 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008532374A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. オーディオオブジェクトを用いて波面合成レンダラ手段を制御するための装置および方法
JP2008532372A (ja) * 2005-02-23 2008-08-14 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 波面合成レンダリング手段を制御するための装置および方法
US7809453B2 (en) 2005-02-23 2010-10-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for simulating a wave field synthesis system
US7813826B2 (en) 2005-02-23 2010-10-12 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for storing audio files
US7930048B2 (en) 2005-02-23 2011-04-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for controlling a wave field synthesis renderer means with audio objects
US7962231B2 (en) 2005-02-23 2011-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for providing data in a multi-renderer system
WO2006133812A1 (de) * 2005-06-16 2006-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle
JP2008547255A (ja) * 2005-06-16 2008-12-25 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ ランダムに発生する音源のためのスピーカ信号の生成方法および装置
US8160280B2 (en) 2005-07-15 2012-04-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for controlling a plurality of speakers by means of a DSP
WO2007101498A1 (de) * 2006-03-06 2007-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
CN101406075B (zh) * 2006-03-06 2010-12-01 弗劳恩霍夫应用研究促进协会 用于波场合成系统中混叠校正的设备和方法

Also Published As

Publication number Publication date
EP1606975B1 (de) 2007-01-24
EP1606975A2 (de) 2005-12-21
US20060092854A1 (en) 2006-05-04
DE502004002769D1 (de) 2007-03-15
JP2007502590A (ja) 2007-02-08
ATE352971T1 (de) 2007-02-15
JP4698594B2 (ja) 2011-06-08
WO2004103022A3 (de) 2005-02-17
CN1792118A (zh) 2006-06-21
CN100553372C (zh) 2009-10-21
DE10321980A1 (de) 2004-12-09
KR20060014050A (ko) 2006-02-14
DE10321980B4 (de) 2005-10-06
US7734362B2 (en) 2010-06-08
KR100674814B1 (ko) 2007-01-25

Similar Documents

Publication Publication Date Title
EP1637012B1 (de) Wellenfeldsynthesevorrichtung und verfahren zum treiben eines arrays von lautsprechern
EP1525776B1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
DE10321980B4 (de) Vorrichtung und Verfahren zum Berechnen eines diskreten Werts einer Komponente in einem Lautsprechersignal
EP1671516B1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
DE10254404B4 (de) Audiowiedergabesystem und Verfahren zum Wiedergeben eines Audiosignals
EP1652405B1 (de) Vorrichtung und verfahren zum erzeugen, speichern oder bearbeiten einer audiodarstellung einer audioszene
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
EP1782658B1 (de) Vorrichtung und verfahren zum ansteuern einer mehrzahl von lautsprechern mittels eines dsp
EP1972181B1 (de) Vorrichtung und verfahren zur simulation von wfs-systemen und kompensation von klangbeeinflussenden wfs-eigenschaften
EP1723825B1 (de) Vorrichtung und verfahren zum steuern einer wellenfeldsynthese-rendering-einrichtung
EP1880577B1 (de) Vorrichtung und verfahren zum erzeugen eines lautsprechersignals aufgrund einer zufällig auftretenden audioquelle
EP1518443B1 (de) Vorrichtung und verfahren zum bestimmen einer wiedergabeposition
EP2754151B1 (de) Vorrichtung, verfahren und elektroakustisches system zur nachhallzeitverlängerung
DE10254470A1 (de) Vorrichtung und Verfahren zum Bestimmen einer Impulsantwort und Vorrichtung und Verfahren zum Vorführen eines Audiostücks

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2004732100

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11257781

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020057021712

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 20048133099

Country of ref document: CN

Ref document number: 2006529784

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 2004732100

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020057021712

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 11257781

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 1020057021712

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2004732100

Country of ref document: EP