WO2014187877A2 - Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals - Google Patents

Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals Download PDF

Info

Publication number
WO2014187877A2
WO2014187877A2 PCT/EP2014/060481 EP2014060481W WO2014187877A2 WO 2014187877 A2 WO2014187877 A2 WO 2014187877A2 EP 2014060481 W EP2014060481 W EP 2014060481W WO 2014187877 A2 WO2014187877 A2 WO 2014187877A2
Authority
WO
WIPO (PCT)
Prior art keywords
signal
microphone
source signal
source
sound
Prior art date
Application number
PCT/EP2014/060481
Other languages
English (en)
French (fr)
Other versions
WO2014187877A3 (de
Inventor
Christoph SLADECZEK
Annika NEIDHARDT
Martina Böhme
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority to KR1020157036333A priority Critical patent/KR101820224B1/ko
Priority to EP14729613.1A priority patent/EP3005737B1/de
Priority to US14/892,660 priority patent/US10075800B2/en
Priority to JP2016514404A priority patent/JP6316407B2/ja
Priority to CN201480029942.0A priority patent/CN105264915B/zh
Publication of WO2014187877A2 publication Critical patent/WO2014187877A2/de
Publication of WO2014187877A3 publication Critical patent/WO2014187877A3/de

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • Embodiments of the present invention are concerned with an apparatus, method and computer program for providing a sound signal based on at least two source signals recorded by microphones located within a room or an acoustic scene.
  • the acoustic scene should be understood to mean any sound composition or any sound signal.
  • the term acoustic scene is used herein, an acoustic scene in which herein Of course, these senses can also be generated by only a single sound source.
  • the character of such an acoustic scene is determined not only by the number or distribution of the sound sources generating them in a room, but also by the shape or geometry of the room itself.
  • an audio mixing console is often used to produce audio material having a plurality of channels, each associated with one of many microphones, which in turn are located within the acoustic scene, for example within a concert hall or the like .
  • the individual audio or source signals can be present both analog and digital, for example as a series of digital sample values, the sample values being equidistant in time and corresponding in each case to an amplitude of the sampled audio signal.
  • a mixer can therefore be used, for example, as a dedicated hardware or be implemented as a software component on a PC or a programmable CPU, provided that the audio signals are digital.
  • Each individual sound signal or each audio signal to be processed can be assigned to a separate channel strip on the mixer, wherein a channel strip can provide several functionalities for changing the sound of the associated audio signal, for example a change in volume, filtering, mixing with other channel strips, a distribution or a splitting of the relevant channel or the like.
  • each channel has to be adjusted manually based on the real position of the recording microphone within the acoustic scene and compared with a partially significant number of other microphones.
  • a high number of microphone or source signals of, for example, over 100 are recorded simultaneously and possibly processed in real time to a sound mix.
  • the spatial relationship between the individual microphone or source signals thereby generate, this first the positions of the microphones and their assignment to
  • the individual channel strips are noted by hand in order to regulate the volumes and possibly other parameters such as a distribution of volumes for several channels or reverb (pan and reverb) of the individual channel strips so that the sound mix at the desired listening position or for a desired speaker arrangement achieved the desired spatial effect.
  • some embodiments of the present invention enable this by using a sound signal generator to provide a sound signal for a virtual listening position within a room in which an acoustic scene from at least a first microphone at a first known position within the room as a first source signal and at least one second microphone is recorded at a second known position within the room as a second source signal.
  • the Tonsignalerzeuger on an input cut parts to receive the first and second microphone received from the first microphone and the first source signals.
  • a geometry processor within the audio signal generator is configured to obtain, based on the first position and the virtual listening position, first geometry information comprising a first distance between the first known position and the virtual listening position (202), and a first geometry information based on the second position and the virtual listening position second distance between the second known position and the virtual listening position (202) to determine second geometry information so that they can be taken into account by a signal generator, which serves to provide the audio signal.
  • the signal generator is designed to at least the first source signal and the second source signal according to a combination rule combine to get the sound signal.
  • the combination is performed using the first geometry information and the second geometry information.
  • a sound signal may be generated from two source signals recorded by real microphones spatial perception at the location of the virtual listening position correspond or may resemble. This can be achieved, for example, in particular by using geometry information, which for example indicates the relative position between the positions of the real microphones and the virtual monitoring position, directly in the provision or generation of the sound signal for the virtual listening position. This can therefore be possible without complex calculations, so that the provision of the sound signal can be done in real time or approximately in real time.
  • the direct use of geometry information to generate a sound signal for a virtual listening position may also make it possible to create a sound mixture by simply shifting the position or coordinates of the virtual listening position, without the possibly large number of source signals individually and manually adjusted would have to be.
  • the creation of an individual sound mixture can, for example, also enable an efficient control of the setup prior to the actual recording, wherein, for example, the recording quality or the arrangement of the real microphones in the scene can be controlled by virtue of the virtual listening position within the acoustic scene or within the acoustic scene is freely moved in the acoustic space, so that a sound engineer can immediately receive an automatic acoustic feedback, whether the individual microphones are wired correctly or whether they work properly.
  • each individual microphone can be checked without having to hide all of the other microphones when the virtual listening position is brought close to the position of one of the real microphones, so that its share of the provided sound signal dominates. This in turn makes it possible to control the source or recorded by the respective microphone. Audio signal.
  • embodiments of the invention may even allow, even in the event of an error during live recording, to quickly identify the error. lers can intervene so quickly and fix the error can, for example, by replacing a microphone or a cable that at least large parts of the concert can still be recorded correctly. Further, according to the embodiments of the present invention, it may not be necessary to record the position of a plurality of microphones used for recording an acoustic scene independently of the source signals, to subsequently add the spatial arrangement of the recording microphones imitate the mix of the signal representing the acoustic scene.
  • the previously known positions of the microphones recording the source signals within the acoustic space can be directly taken into account as control parameters or characteristics of individual channel strips in an audio mixing console and preserved or recorded together with the source signal.
  • Some embodiments of the present invention are a mixer for processing at least a first and a second source signal and providing a mixed audio signal, the mixer comprising a tone signal generator for providing a sound signal for a virtual listening position within a room in which an acoustic scene of at least a first The microphone is recorded at a first known location within the room as the first source signal and from at least one second microphone at a second known location within the room as the second source signal, the audio signal generator comprising: an input interface adapted to receive the one of the second source signal receiving the first microphone recorded first source signal and received by the second microphone second source signal; a geometry processor configured to determine first geometry information based on the first position and the virtual listening position, and to determine second geometry information based on the second position and the virtual listening position; and a signal generator
  • the mixer further includes a user interface configured to display a graphical representation of the locations of a plurality of microphones as well as one or more virtual listening positions. That is, some embodiments of mixing consoles also allow a graphical representation of the geometric relationships in the recording of the acoustic scene, which can enable a sound engineer in a simple and intuitive way to create a spatial mix or a microphone setup to control or build up or adjust for recording a complex acoustic scene.
  • a mixing console additionally comprises an input device which is designed to input or change at least the virtual listening position, in particular by direct interaction or influencing of the graphical representation of the virtual listening position.
  • an input device which is designed to input or change at least the virtual listening position, in particular by direct interaction or influencing of the graphical representation of the virtual listening position.
  • Some other mixer embodiments also allow to characterize each of the microphones as belonging to a particular one of several different microphone types via the input interface.
  • a microphone type can correspond to microphones which predominantly record a direct sound component due to their geometric relative position with respect to the objects or sound sources of the acoustic scene to be recorded.
  • a second type of microphone may for the same reason primarily identify a diffuse sound-absorbing microphone.
  • the possibility of assigning the individual microphones to different types can serve, for example, to combine the source signals, which are recorded by the different types, with respectively different combination rules in order to obtain the sound signal for the virtual listening position.
  • This may, according to some embodiments, be used in particular for different combination or superposition rules for microphones, which are predominantly To record diffuse sound and use for those microphones that record predominantly direct sound, in order to arrive at a natural sound impression or a signal that has advantageous properties for the given requirement.
  • the weights for the different microphone types are determined differently. For example, in microphones that predominantly record direct sound, a drop in volume corresponding to the reality can be implemented with increasing distance from the microphone via a suitably chosen weighting factor.
  • the weight is proportional to the inverse of a power of the distance of the microphone to the virtual listening position.
  • the weight is proportional to the inverse of the distance, which corresponds to the sound propagation of an idealized point sound source.
  • the weighting factors are proportional to the near field radius multiplied inverse of the distance of the microphone to the virtual listening position. This can lead to an improved perception of the sound signal by taking into account the assumed influence of a near field radius, within which a constant volume of the source signal is assumed.
  • the sound signal is generated from the recorded source signals xi and x 2 by forming a weighted sum
  • the weights gi and g 2 depend on the relative positions of the microphones and at the same time fulfill an additional boundary condition.
  • first of all a first intermediate signal and a second intermediate signal are formed from the source signals by means of two weighted sums of different weights. From the first and second intermediate signal, the sound signal is then determined by means of a further weighted sum, wherein the weights are dependent on a correlation coefficient between the first and the second source signal.
  • the sound signals in areas in which the virtual listening position is surrounded by three microphones each recording a source signal, are formed using the three source signals.
  • the provision of the audio signal comprises generating a weighted sum of the three recorded source signals.
  • the microphones associated with the source signals form a triangle, the weights for a source signal being determined based on a perpendicular projection of the virtual listening position to the height of the triangle passing through the position of the respective microphone. Different methods of determining the weights may be used. Nevertheless, the volume can remain approximately unchanged, even if three instead of only two source signals are combined, which can contribute to a more sonically realistic reproduction of the sound field at the virtual listening position.
  • either the first or the second source signal is delayed by a delay time prior to combining the two source signals if a comparison of the first geometry information and the second geometry information satisfies a predetermined criterion, especially if the two distances are less than a minimum allowable distance differ from each other. This can make it possible to produce the sound signals without producing color discolorations, which may be due to the superposition of a signal that has a low spatial chen distance was recorded, could be generated.
  • each of the source signals used is efficiently decelerated such that its propagation time or latency corresponds to the maximum signal propagation time from the location of all participating microphones to the virtual listening position such that destructive interference of similar or identical signals is avoided by a forced identical signal propagation time can.
  • directional dependencies are also taken into account in the superposition or weighted summation of the source signals, that is, the virtual listening position can be assigned a preferred direction and a directional characteristic specified with respect to the preferred direction. This can make it possible to achieve a realistic effect when generating the sound signal by additionally taking into account a known directional characteristic, for example of a real microphone or of the human ear.
  • Figure 1 An embodiment of a Tonsignalermaschineers
  • Figure 2 An illustration of an acoustic scene whose source signals with
  • Embodiments of sound signal generators are processed
  • FIG. 3 shows an example of a combination rule for generating a sound signal according to some embodiments of the invention
  • Figure 4 An illustration to illustrate a further example of a
  • Figure 5 A graphic illustration of a combination rule for use
  • Figure 6 is an illustration of another combination rule
  • Figure 7 is an illustration of a directional combination rule
  • Figure 8 is a schematic representation of an embodiment
  • Figure 9 A schematic representation of an embodiment
  • Figure 10 A schematic representation of an embodiment of a user interface.
  • FIG. 1 shows a schematic representation of an exemplary embodiment of a tone signal generator 100, which comprises an input section 102, a geometry processor 104 and a signal generator 106.
  • the tone signal generator 100 serves to provide a tone signal for a virtual listening position 202 within a room 200, which is indicated only schematically in FIG. In the space 200, an acoustic scene is recorded by means of at least a first microphone 204 and a second microphone 206.
  • the source 208 of the acoustic scene is here illustrated only schematically as an area within the space 200 within which a plurality of sound sources may be located, leading to a sound field referred to as an acoustic scene within the space 200, which in turn may be accessed by means of the Microphones 204 and 206 is recorded.
  • the input cut portions 102 are configured to receive a first source signal 210 received by the first microphone 204 and a second source signal 212 received by the second microphone 206.
  • the first and the second source signals 210 and 212 can be both analog and digital signals which can be transmitted both encoded and uncoded by the microphones. That is, according to some embodiments, the source signals 210 and 212 may already be encoded or compressed according to a compression method such as the Advanced Audio Codec (AAC), MPEG 1, Layer 3 (MP3), or the like.
  • AAC Advanced Audio Codec
  • MP3 Layer 3
  • the first and second mics 204 and 206 are located at known locations within the space 200, which are also known to the geometry processor 104.
  • the geometry processor 104 also knows the position or the coordinates of the virtual listening position 202 and is designed to determine first geometry information 110 from the first position of the first microphone 204 and the virtual listening position 202.
  • the geometry processor 104 is further configured to determine second geometry information 112 from the second position and the virtual listening position 202.
  • first geometry information may include a first distance between the first known position and the virtual listening position and the second geometry information comprises a second distance between the second known position and the virtual listening position.
  • the signal generator is configured to provide the audio signal combining the first source signal 210 and the second source signal 212, the combination following a combination rule according to which both the first geometry information 110 and the second geometry information 112 are considered.
  • the sound signal 120 is thus obtained from the first and the second source signals 210 and 212, in which case the first and the second geometry information 110 and 112 are used. That is, information about the geometric characteristics or relationships between the virtual listening position 12 and the positions of the microphones 204 and 206 are used directly to determine the sound signal 120.
  • a sound signal may thus possibly be obtained in a simple and intuitive manner, which makes it possible to control a functionality of the microphones arranged in the vicinity of the virtual monitoring position 202 without, for example, individually transferring the multiplicity of microphones within an orchestra must be listened to these each assigned channels of a mixer.
  • the sound signal 120 is generated among other things generates a weighted sum of the first source signal 210 and the second source signal 212.
  • the sound signal generator 100 can be to generate a sound signal for a virtual listening position, as will be explained here and with reference to the following embodiments.
  • the audio signal x is generated from a linear combination of the first source signal 210 (xi) and the second source signal 212 (x 2 ), wherein the first source signal xi with a first weight gi and the second source signal x 2 with a second Weight g 2 are weighted so that:
  • further source signals x 3 , x n with associated weights g 3 , g n can additionally be taken into account.
  • sound signals are time-dependent, in the present case for reasons of clarity
  • the explicit reference to the time dependence is dispensed with and indications of sound or source signals x are to be understood synonymously with the specification x (t).
  • Figure 2 shows schematically the space 200, wherein it is assumed in the representation chosen in Figure 2, this is bounded by rectangular walls, which are responsible for the emergence of a diffuse sound field. Furthermore, for the sake of simplification, it is assumed that although one or more sound sources can be arranged within the confined area in the source 208 illustrated in FIG. 2, these can initially be regarded as a single source in terms of their effect on the individual microphones.
  • the direct sound emitted by these sound sources is multiply reflected by the walls delimiting the space 200, so that a diffuse sound field generated by the multiple reflections of the already attenuated signals results from uncorrelated superimposed signals having a constant volume at least approximately within the entire space ,
  • This superimposed is a direct sound component, ie the one sound directly from the sound sources located within the source 208 reaches the possible listening positions, in particular so the microphones 220 to 232, without having been previously reflected.
  • the sound field can be conceptually idealized into two components, namely a direct sound component, which directly reaches the corresponding listening position from the place of generation of the sound and a diffuse sound component, which consists of an approximately uncorrelated superimposition of a plurality of directly radiated and reflected signals.
  • the source 208 predominantly records direct sound, that is, the volume or the sound pressure of the signal picked up by these microphones predominantly results from a direct sound component , the sound sources disposed within the source 208.
  • the microphones 226-232 recorded a signal predominantly due to the diffuse sound component, since the spatial distance between the source 208 and the microphones 226-232 is large, so that the volume of the direct sound is at least comparable at these positions or less than the volume of the diffuse sound field.
  • a weight g n for the individual source signals depends on the distance between the virtual listening position 202 and the microphones 220 to 232 selected for recording the source signals.
  • FIG. 3 shows by way of example a possibility for determining such a weight or such a factor for multiplication with the source signal, the microphone 222 being chosen here as an example.
  • the weight g n is chosen to be proportional to the inverse of a power of the first distance di, ie:
  • the near field radius 242 corresponds to an area immediately around a sound source, in particular to the area within which the sound wave or the sound front Within a near-field radius, the sound pressure level or the volume of the audio signal is assumed to be constant In a simple model presentation, it may be assumed that no significant attenuation occurs within a single wavelength of an audio or audio signal, so that at least within one As a result, the near field radius can also be frequency-dependent.
  • a sound signal can be generated at the virtual listening position 202 by weighting the variables relevant for the control of the acoustic scene or the configuration and cabling of the individual microphones particularly when the virtual listening position 202 approaches one of the real positions of the microphones 220-232.
  • a near-field radius r is assumed to be a frequency-independent variable, it is possible, in accordance with some According to further embodiments, a frequency dependence of the near field radius be implemented. According to some embodiments, it is thus assumed for generation of the sound signal that within a near field radius r around one of the microphones 220 to 232 the volume is constant.
  • the weight gi is proportional to a quotient of the near field radius ri of the considered microphone 222 and the distance di virtual listening position 202 and microphone 222, so that:
  • Such a parameterization or distance dependence can take into account both the considerations for the near field and the considerations for the far field.
  • the far field of a point-shaped sound source is followed by a far field, in which the sound pressure is halved with each doubling of the distance from the sound source when the field propagates freely, ie the level decreases by 6 dB in each case.
  • This property is also known as the law of distance or 1 / r law.
  • sources 208 may be recorded whose sound sources radiate directionally, it may possibly be assumed that point-shaped sound sources, if not a realistic reproduction of the sound field at the location of the virtual listening position 202 in the foreground, but rather the possibility Microphones or the recording quality of a complex acoustic scene quickly and efficiently to control or listen to.
  • the near field radii can be selected differently for different microphones. In particular, the different microphone types can be taken into account.
  • the near-field radius of the type A microphones is made larger than that for the type D microphones, which can lead to a simple possibility of controlling the individual microphones when the virtual listening position 202 is placed in the vicinity thereof Roughly distorting physical conditions or the sound impression, in particular because the diffuse sound field, as shown above, is approximately the same over large areas.
  • tone signal generators 100 for combining the source signals use different combination rules when the microphones that record the respective source signals are associated with different microphone types. That is, a first combination rule is used when the two microphones to be combined are associated with a first microphone type and a second combination rule is used when the two microphones to be combined or the source signals recorded by these microphones are associated with a second, different microphone type ,
  • the microphones of each different type may first be processed completely separated and combined into a sub-signal x virt , whereupon in a final step by the sound signal generator or mixing console the final signal is generated by combining the previously generated sub-signals.
  • a second partial signal x D could be determined for the virtual listening position 202, which takes into account only the microphones of the type D, ie the microphones 220 to 224, but combines them according to another combination rule.
  • the final sound signal x for the virtual listening position 202 could then be generated by combining these two sub-signals, in particular by a linear combination of the first sub-signal XD, which was obtained by means of the microphones of the first type (D) and a second partial signal XA obtained by means of the microphones of the second type (A), such that
  • FIG. 4 shows a schematic view similar to FIG. 2 of an acoustic scene together with positions of microphones 220 to 224 which record direct sound and a series of microphones of type A, of which the microphones 250 to 256 are to be considered below. On the basis of this, some possibilities are discussed with which combination rules a sound signal for the virtual listening position 202, which is arranged in the configuration illustrated in FIGS. 4 and 5, within a triangular area spanned by the microphones 250 to 254, can be generated.
  • the interpolation of the volume or the generation of the sound signal for the virtual listening position 202 can take place taking into account the positions of the nearest microphones or taking into account the positions of all microphones.
  • These can be found for example by means of a Delaunay triangulation or determined by any other algorithms for searching the nearest neighbors (Nearest Neighbor).
  • the audio signal for the virtual listening position 202 is generated according to a first fading rule, the so-called linear panning law. According to this method, the tone signal x virt i is determined using the following calculation rule:
  • a second fade rule according to which the tone signal x virt2 can be generated is the so-called sine and cosine law:
  • x virt2 cos (5) * xi + sin (5) * x 2 , where ⁇ £ [0 °; 90 °].
  • the parameter ⁇ which determines the individual weights gi and g 2 , ranges from 0 ° to 90 ° and is calculated from the distance between the virtual listening position 202 and the microphones 252 and 254.
  • the squares of the weights for arbitrary values of ⁇ to 1 a constant-tone sound signal can be generated by means of the sine-cosine law for any parameter ⁇ if the source signals are decorrelated.
  • a loudness increase in strength of 3dB results.
  • a third fading rule which leads to the results similar to the second fade rule, and according to which the tone signal x V irt3 can be generated, is the so-called Tangens law:
  • a fourth fading rule that can be used to generate the tone signal x V i rt4 is the so-called sine law:
  • the squares of the weights add up to any possible value of the parameter ⁇ to 1.
  • the parameter ⁇ is again determined by the distances between the virtual listening position 202 and the microphones, it can take values of minus 45 degrees to 45 degrees.
  • a fourth combination rule may be used, according to the first preceding described fade rule and the second previously described fade rule depending on the combined source signals to be combined.
  • the fourth combination rule there is a linear combination of two intermediate signals x virt i and x virt 2 which were initially generated separately for the source signals xi and x 2 according to the first and the second crossfading rule.
  • the correlation coefficient ⁇ ⁇ 2 between the source signals xi and x 2 is used as the weighting factor for the linear combination, which is defined as follows and represents a measure of the similarity of the two signals:
  • E denotes the expected value or the linear mean value and ⁇ indicates the standard deviation of the relevant variable or the relevant source signal, whereby for acoustic signals to a good approximation the linear mean value E ⁇ x ⁇ is zero.
  • x virt a xlx2 * x VIRTL + (1 - ⁇ ⁇ 1 ⁇ 2) * x virt2- That is, according to some embodiments of the present invention further comprises the combination rule forming a weighted sum of x virt from the ⁇ with a correlation coefficient ⁇ 2 for a correlation between the first source signal xi and the second source signal x 2 weighted intermediate signals x virtl and x ⁇ ⁇ .
  • a combination with approximately constant volume can thus be achieved over the entire parameter range according to some embodiments of the present invention. This can also be Be achieved regardless of whether the signals to be combined are dissimilar or similar.
  • a sound signal is to be acquired at a virtual listening position 202 that is within a triangle bounded by three microphones 250 to 254, in accordance with some embodiments of the present invention, the three source signals of the microphones 250 to 254 may be linearly combined in which the individual signal components of the source signals associated with the microphones 250 to 254 are based on a vertical projection of the virtual listening position 202 on the height of the triangle which is assigned to the position of the microphone assigned to the respective source signal.
  • a vertical projection of the virtual listening position 202 to the height 262 is initially made, which is assigned to the microphone 250 or the corner of the triangle at which the microphone 250 is located. This results in the projected position 264 shown in dashed lines in FIG. 5 at the height 262. This in turn subdivides the height 262 into a first height section 266 facing the microphone 250 and a height section 268 facing away from it.
  • the ratio of these height sections 266 and 268 is used to calculate a weight for the source signal of the microphone 250 in accordance with one of the aforementioned fade rules, assuming that at the end of the height 262 opposite the microphone 250 is a sound source or microphone that constantly outputs a signal having the amplitude zero records.
  • the height of each triangle side is determined and the distance of the virtual microphone to each triangle side is determined.
  • the microphone signal is linearly blended or, depending on the chosen blending rule, from the vertex of the triangle to the opposite side of the triangle to zero.
  • this means that the source signal of the microphone 250 is used with the weight 1 when the projection 264 is at the position of the microphone 250 and with zero when it is on the connecting straight line between the position of the microphones 252 and 254, ie located on the opposite side of the triangle. Between these two extremes becomes the source signal of the microphone 250 faded in or out.
  • the weights are gi to g 3 for the linear combination of the source signals xi to x 3 based on a perpendicular projection of the virtual listening position 202 determines to that height of the triangle associated with the position of the associated with the respective source signal microphone or by this height runs.
  • a common correlation coefficient for the three source signals xi to x 3 can be determined by first determining a correlation between the respectively adjacent source signals, resulting in a total of three correlation coefficients.
  • a common correlation coefficient is formed by averaging, which in turn determines the weighting for the sum of sub-signals formed by the first fading rule (linear panning) and the second fading rule (sine-cosine law) , That is, it is first determined a first sub-signal with the sine-cosine law, then a second sub-signal is determined with the linear panning and the two sub-signals are linearly combined by weighting with the correlation coefficient.
  • Figure 6 shows an illustration of another possible configuration of positions of microphones 270 to 278 within which a virtual listening position 202 is located.
  • a further possible combination rule is illustrated, the properties of which can be combined as desired with the above-described combination options, or which, taken alone, can also be a combination rule in the sense described herein.
  • a source signal is only taken into account in the combination for the sound signal for a virtual listening position 202 if the microphone assigned to the source signal is within a predetermined configurable distance R from the virtual listening position 202 located.
  • computation time can possibly be saved, for example, by taking into account only those microphones, in accordance with some embodiments whose signal contributions lie above the human hearing threshold according to the selected combination rules.
  • the combination rule may further take into account a directional characteristic for the virtual listening position 202. That is to say, for example, the first weight gi for the first source signal xi of the first microphone 220 can additionally be proportional to a directional factor rfi that results from a sensitivity function or a directional characteristic for the virtual monitoring position 202 and from the relative position between the virtual monitoring position 202 and microphone 220. D. h.
  • the first geometry information further comprises first directional information about a direction between the microphone 220 and a preferred direction 280 associated with the virtual listening position 202, in which the directional characteristic 282 has its maximum sensitivity.
  • the weighting factors gi and g 2 of the linear combination of the source signals xi and x 2 additionally depend on a first directional factor rfi and a second directional factor rf 2 , which take into account the directional characteristic 280 at the virtual listening position 202 according to some embodiments.
  • the combination rules discussed in the preceding paragraphs can be summarized as follows. The individual implementations are described in more detail in the next sections. All variants have in common that comb filter effects could occur when adding the signals. If this is potentially the case, the signals can be delayed accordingly beforehand. Therefore, the algorithm usable for delay is first shown.
  • signals can be summed up without producing noticeable comb filter effects. It is also safe to sum up signals from microphones whose positional distances comply with the so-called 3: 1 rule.
  • the rule states that when recording a sound source with two microphones, the distance between the sound source and the second microphone should be at least three times the distance from the sound source to the first microphone in order to obtain any noticeable comb filter effects. Ahead- Microphones of the same sensitivity and the fall in the sound pressure level with the distance, for example according to the 1 / r-law.
  • the system or a tone signal generator or its geometry processor initially determines whether both conditions are met. If this is not the case, the signals can be delayed prior to the calculation of the virtual microphone signal according to the current position of the virtual microphone. If necessary, the distances of all microphones to the virtual microphone are determined and the signals with respect to the microphone, which is furthest from the virtual one, are shifted in time. For this purpose the largest distance is determined and the difference to the remaining distances is formed. The latency A t t in sampling now results from the ratio of the respective distance dj to the sound velocity c is multiplied with the sampling rate Fs.
  • the calculated value can be calculated in digital implementations, for example, when the signal is to be delayed only by whole samples. N here are the number of recording microphones:
  • all the source signals are applied with the maximum specific latency.
  • the following variants can be implemented.
  • close microphones or microphones for recording direct sound are referred to below as microphones of a first microphone type and Ambientmikrofone or microphones for recording a diffuse sound component as microphones of a second microphone type.
  • the virtual listening position is also referred to as a position of a virtual microphone.
  • both the signals of the close microphones or of the microphones of a first microphone type and the signals of the ambient microphones fall off according to the law of distance.
  • each microphone can be heard in his position particularly dominant.
  • the near field radii around the near and ambient microphones can first be determined by the user. Within this radius, the volume of the signals remains constant. If you now place the virtual microphone in the recording scene, the distances from the virtual microphone to each individual real microphone are calculated. For this, the sample values of the microphone signals Xi [t] is divided by the instantaneous distance dj and multiplied by the near field radius r na h. N indicates the number of recording microphones:
  • a separation of the direct and diffuse sound should be approximately equal in volume throughout the room.
  • the room is arranged by the arrangement of Ambientmikrofone in certain areas.
  • the diffuse sound component is calculated from one, two or three microphone signals.
  • the signals of the Nahmikrofone fall off with the distance according to the distance law.
  • Figure 4 shows an example of a room layout. The dots symbolize the ambient microphones.
  • the outer ambient microphones form a polygon.
  • the area within this polygon is divided into triangles.
  • Delaunay triangulation is used.
  • a triangle mesh can be formed from a set of points. Above all, it is characterized by the fact that the circumference of a triangle does not include any further points of the set. By fulfilling this so-called perimeter condition, triangles are created with the largest possible interior angles.
  • Figure 4 shows this triangulation by four points.
  • the Delaunay triangulation groups closely spaced microphones and maps each microphone to the surrounding space.
  • the signal for the virtual microphone is calculated within the polygon of three microphone signals. Outside the polygon, two vertical lines are defined for each connecting line of two vertices, which run through the corner points. This limits certain areas outside the polygon as well.
  • the virtual microphone can thus be located either between two microphones or with a microphone at a corner point.
  • To calculate the diffuse sound component it should first be determined whether the virtual microphone is inside or outside the polygon forming the edge. ever by position, the diffused portion of the virtual microphone signal is calculated from one, two or three microphone signals.
  • the virtual microphone is outside the polygon, a distinction is made between the areas at one vertex and between two microphones. If the virtual microphone in the area near a microphone is at a vertex of the polygon, only the signal x ; this microphone is used for the calculation of the diffused sound content:
  • the virtual microphone signal from the two respective microphone signals xi and x 2 is composed.
  • the two signals are superimposed using different fade rules or panning methods. These are also referred to as follows: linear panning law (first fade rule), sine cosine law (second fade rule), tangent law (third fade rule), and combination of linear panning law and sine cosine law (fourth fade rule ).
  • xvirt ° xlx2 * x virtl + (1 - ⁇ ⁇ 1 ⁇ 2) * x virt2>
  • the correlation coefficient may not only describe an instantaneous value, but may be integrated over a period of time. In the case For example, this distance range can be 0.5 seconds. Since the exemplary embodiments of the invention or the virtual microphones do not always have to be real-time capable systems, the correlation coefficient can also be determined over a relatively long period of time, for example 30 s
  • the diffused sound component of the virtual microphone signal is composed of the three source signals of the microphones located at the corners. To do this, determine the height h of each triangle page and determine the distance dvirtMic of the virtual microphone to each triangle page. Depending on the set panning method or, depending on the crossfade rule used, the microphone signal is blended to zero from one vertex to the opposite triangle side along the corresponding height.
  • the panning methods described above can be used, which are also used for the calculation of the signal outside the polygon.
  • the division of the distance d virt Mic by the value of the height h normalizes the distance to a length of 1 and supplies the corresponding position on the panning curve. This value can now be read on the y-axis, with which each of the three signals is multiplied according to the set panning method.
  • the correlation coefficient is first determined from two respective source signals. This gives three correlation coefficients, from which the mean value is subsequently formed.
  • the distances of all microphones to the virtual microphone are first determined and used to determine which microphones lie within the circle.
  • the signals of the microphones which are outside the circle are set to zero or get the weight 0.
  • the signal values of the microphones x t (t) within the circle are added up in equal parts, resulting in the signal for the virtual microphone. If N specifies the number of recording microphones within the circle, the following applies:
  • the signals at the edge of the circle can additionally be shown or hidden in a linear manner. In this variant, there is no need to distinguish between near and ambient microphones.
  • the virtual microphone can be provided with a directional vector r, which initially points in the main direction of the directional characteristic (in the polar diagram). Since the directional characteristic of a microphone can be effective only for direct sound for some embodiments, then the directional characteristic affects only the signals of the Nahmikrofone. The signals of the ambient microphones are included unchanged in the calculation according to the combination rule. From the virtual microphone Vectors are formed to all close-up microphones. For each of the close-up microphones, the angle (Pi > h) between this vector and the direction vector of the virtual microphone is calculated, as shown in Figure 7 for a microphone 220.
  • Figure 8 shows schematically a mixer 300 comprising a tone generator 100 and by means of which signals can be received from microphones 290 to 295 which are used to record an acoustic scene 208.
  • the mixer is used to process the source signals from at least two microphones 290 to 295 and to provide a mixed-tone signal 302, which is indicated only schematically in the representation selected in FIG.
  • the mixer further includes a user interface 306 configured to display a graphical representation of the positions of the plurality of microphones 290 to 295, and additionally the position of a virtual listening position 202 within the acoustic space the microphones 290 to 295 are located is arranged.
  • the user interface further allows each of the microphones 290 to 295 to be assigned a type of microphone, for example, a first type (1) identifying microphones for direct sound recording and a second type (2) designating microphones for recording diffuse sound components.
  • the user interface is further configured to allow a user of the mixing console to easily and intuitively move the virtual listening position 202 in an easy manner, for example, by moving a cursor 310 schematically shown in FIG. 8 or a computer mouse Thus, in a simple manner to allow control of the entire acoustic scene or the recording equipment.
  • Figure 9 shows schematically an embodiment of a method for providing a sound signal, comprising in a signal reception step 500, a receive an image captured by the first microphone first source signal xi and an image captured by the second microphone second source signal x2.
  • first geometry information is determined based on the first position and the virtual listening position and second geometry information based on the second position and the virtual listening position.
  • a combining step 505 at least the first source signal xi and the second source signal x 2 are used according to a combination rule using the first geometry information and the second geometry information.
  • FIG. 10 again schematically shows a user interface 306 for an embodiment of the invention, which differs slightly from that shown in FIG.
  • the positions of the microphones can be specified, in particular also as sound sources or microphones of different types or microphones (1, 2, 3, 4)
  • a virtual listening position 202 may be indicated (circle with cross)
  • Each sound source may be associated with one of the mixer channels 310-316.
  • the first virtual Ab workshopposition would be generated, which also has a frequency-dependent directional characteristic, so that the signal propagation along the ear canal in the sense of a Head-Related-Transfer-Function (HRTF) on the frequency-dependent directional characteristic could be simulated.
  • HRTF Head-Related-Transfer-Function
  • two mono signals would be obtained which correspond directly to the sound impression that a real listener would have at the location of the virtual listening position when listening directly to, for example, a headphone.
  • a conventional stereo microphone can also be simulated.
  • the position of a sound source (e.g., a microphone) in the mixer / recording software may be indicated.
  • a sound source e.g., a microphone
  • At least three new tools are available to the sound engineer based on the position of the sound source:
  • FIG. 10 schematically shows a potential user interface with the positions of the sound sources and one or more "virtual receivers.” Via the user interface or via an interaction canvas, a position can be assigned to each microphone (numbered 1 to 4) By positioning one or more receivers (circle with cross), sound signals from the sound sources can be calculated that can be used to monitor or find signal errors or to create mixes: the microphones or sound sources
  • different types of functions are used assigned, eg Nahmikrofon (type "D") or Ambientmikrofon (type "A") or even part of a microphone array, which should be evaluated only together with the others.
  • the calculation rules used are adjusted.
  • the user has the opportunity to configure the calculation of the output signal.
  • other parameters can be set, such as the type of crossfading between adjacent microphones. Variable components or procedures of the calculation can be:
  • a receiver range is specified around the sound source or the receiver; 2.
  • a directional characteristic is given for the receiver.
  • each sound source one type (eg direct sound microphone, ambient or diffuse sound microphone) can be selected.
  • the type the calculation rule of the signal at the receiver is controlled. This leads to a particularly simple operation in the specific application. Preparing a recording with a lot of microphones is so much easier. In this case, each microphone can already be allocated a position in the mixing console in the setup process before the actual recording. The sound mixing no longer has to be done by adjusting the volume for each sound source on the channel strip, but can be done by specifying a position of the receiver in the sound source scene (eg: simple click with the mouse in the scene). Based on a selectable model for calculating the volume at the receiver site, a new signal is calculated for each repositioning of the receiver.
  • a selectable model for calculating the volume at the receiver site Based on a selectable model for calculating the volume at the receiver site, a new signal is calculated for each repositioning of the receiver.
  • Positioning can also be used to create spatial sound mixing when the receiver signal continues to be used as the output loudspeaker signal, eliminating the need to set a volume for each individual channel , the adjustment is made by choosing the position of the receiver for all sound sources simultaneously.
  • the algorithms also offer a novel creative tool.
  • the scheme for the distance-dependent calculation of sound signals is shown in FIG. 3. In this case, a loudness value g follows as a function of the radius R L
  • a scheme for volume interpolation is shown in FIG. 5.
  • the calculation of the volume arriving at the receiver is based on the position of the receiver between two or more microphones.
  • the selection of the active sound sources can be determined by so-called "rest-neighbor” algorithms.
  • the calculation of an audible signal at the receiver location or at the virtual listening position is effected by an interpolation rule between two or more sound source signals in order to allow the listener a constantly pleasant volume.
  • sound sources can be activated by another algorithm.
  • an area around the receiver with the radius R is defined. The value of R can be varied by the user. If the sound source is in this range, it is audible to the receiver.
  • This algorithm shown in FIG. 6, can also be combined with the distance-dependent volume calculation. So there is an area with the radius R around the receiver. If sound sources are within the radius, they are audible to the receiver. If the sound sources are outside, their signal does not flow into the calculation of the output signal.
  • the directional characteristic may be a frequency-dependent filter or a pure volume value.
  • FIG. 7 shows this schematically.
  • the virtual receiver is provided with a direction vector which can be rotated by the user.
  • a selection of simple ones Geometries are presented to the user as well as a selection of directional characteristics of popular microphone types and also some examples of human ears to create a virtual listener.
  • the receiver or the virtual microphone at the virtual listening position has, for example, a cardioid characteristic.
  • the signals of the sound sources have a different influence on the receiver.
  • the direction of arrival signals are attenuated differently.
  • aspects have been described in the context of a tone signal generator, it will be understood that these aspects also constitute a description of the corresponding method such that a block or device of a tone signal generator may also be considered as a corresponding method or as a feature of a method step , Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding tone signal generator.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-Ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals, which can cooperate with a programmable hardware component or cooperate such that the respective method is performed.
  • the digital storage medium may therefore be machine or computer readable.
  • some embodiments include a data carrier having electronically readable control signals capable of interacting with a programmable computer system or programmable hardware component such that one of the methods described herein is performed.
  • One embodiment is thus a data carrier (or a digital storage medium or a computer readable medium) on which the program is recorded for performing one of the methods described herein.
  • embodiments of the present invention may be implemented as a program, firmware, computer program, or computer program product having program code or data, the program code or data operative to perform one of the methods when the program resides on a processor or a computer programmable hardware component expires.
  • the program code or the data can also be stored, for example, on a machine-readable carrier or data carrier.
  • the program code or the data may be present, inter alia, as source code, machine code or bytecode as well as other intermediate code.
  • Another embodiment is further a data stream, a signal sequence, or a sequence of signals that represents the program for performing any of the methods described herein.
  • the data stream, the signal sequence or the sequence of signals can be configured, for example, to be transferred via a data communication connection, for example via the Internet or another network.
  • Embodiments are also data representing signal sequences that are suitable for transmission over a network or a data communication connection, the data representing the program.
  • a program may implement one of the methods during its execution, for example, by reading out of these memory locations or writing therein one or more data, whereby switching operations or other operations in transistor structures, in amplifier structures or in other Ren electrical, optical, magnetic or operating according to another operating principle components are caused. Accordingly, by reading a memory location, data, values, sensor values or other information can be detected, determined or measured by a program.
  • a program can therefore acquire, determine or measure quantities, values, measured variables and other information by reading from one or more storage locations, as well as effect, initiate or execute an action by writing to one or more storage locations and control other devices, machines and components ,

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)

Abstract

Ein Mischpult (300) zum Verarbeiten zumindest eines ersten und eines zweiten Quellsignals und zum Bereitstellen eines abgemischten Tonsignals umfasst einen Tonsignalerzeuger (100) zum Bereitstellen eines Tonsignales (120) für eine virtuelle Abhörposition (202) innerhalb eines Raumes (200), in dem eine akustische Szene von zumindest einem ersten Mikrofon (204) an einer ersten bekannten Position innerhalb des Raumes (200) als das erstes Quellsignal (210) und von zumindest einem zweiten Mikrofon (206) an einer zweiten bekannten Position innerhalb des Raumes (200) als das zweite Quellsignal (212) aufgezeichnet wird. Der Tonsignalerzeuger (100) umfasst eine Eingangsschnittstelle (102), die ausgebildet ist, um das von dem ersten Mikrofon (204) aufgenommene erste Quellsignal (210) und das von dem zweiten Mikrofon (206) aufgenommene zweite Quellsignal (212) zu empfangen und eine Geometrieprozessor (104), der ausgebildet ist, um basierend auf der ersten Position und der virtuellen Abhörposition (202) eine erste Geometrieinformation (110) und um basierend auf der zweiten Position und der virtuellen Abhörposition (202) eine zweite Geometrieinformation (112) zu bestimmen. Ein Signalerzeuger (106) zum Bereitstellen des Tonsignales (120) ist ausgebildet, zumindest das erste Quellsignal (210) und das zweite Quellsignal (212) gemäß einer die erste Geometrieinformation (110) und die zweite Geometrieinformation (112) verwendenden Kombinationsregel zu kombinieren.

Description

Beschreibung
Mischpult, Tonsignalerzeuger, Verfahren und Computerprogramm zum Bereitstellen eines Tonsignals
Ausführungsbeispiele der vorliegenden Erfindung befassen sich mit einer Vorrichtung, einem Verfahren und einem Computerprogramm zum Bereitstellen eines Tonsignals, das auf zumindest zwei Quellsignalen basiert, die von Mikrofonen, die innerhalb eines Raumes oder einer akustischen Szene angeordnet sind, aufgezeichnet werden.
Komplexere Aufnahmen bzw. akustische Szenen werden üblicherweise unter der Verwendung von Audiomischpulten aufgezeichnet, insoweit es die Aufzeichnung der Tonsignale betrifft. Als akustische Szene soll dabei jedwede Schallzusammensetzung bzw. jedwedes Schallsignal verstanden werden. Um der Tatsache Rechnung zu tragen, dass das bei einem Hörer bzw. an eine Abhörposition empfangene akustische Signal bzw. Schall- oder Audiosignal typischerweise von einer Vielzahl von unterschiedlichen Quellen herrührt, wird hierin der Begriff akustische Szene verwendet, wobei eine akustische Szene in dem hierin genannten Sinne selbstverständlich auch von lediglich einer einzigen Schallquelle erzeugt werden kann. Den Charakter einer solchen akustischen Szene bestimmt jedoch nicht nur die Anzahl bzw. die Verteilung der diese erzeugenden Schallquellen in einem Raum, sondern auch die Form bzw. Geometrie des Raumes selbst. Beispielsweise werden in geschlossenen Räumen als ein Anteil der Raumakustik den einen Zuhörer direkt von der Schallquelle erreichenden Schallanteilen durch die Begrenzungswände verursachte Reflexionen überlagert, die vereinfachend als unter Anderem zeitlich verzögerte und abgeschwächten Kopie der direkten Schallanteile verstanden werden können.
In solchen Umgebungen wird zur Produktion von Audiomaterial oft ein Audiomischpult verwendet, das eine Vielzahl von Kanälen bzw. Eingängen aufweist, die jeweils einem von vielen Mikrofonen zugeordnet sind, die wiederum innerhalb der akustischen Szene, bei- spielsweise innerhalb eines Konzertsaals oder dergleichen, angeordnet sind. Die einzelnen Audio- bzw. Quellsignale können dabei sowohl analog als auch digital vorliegen, beispielsweise als eine Serie von digitalen Samplewerten, wobei die Samplewerte zeitlich äquidistant sind und jeweils zu einer Amplitude des gesampelten Audiosignales korrespondieren. Je nach verwendetem Audiosignal kann ein solches Mischpult daher beispielsweise als dedi- zierte Hardware oder als Softwarekomponente auf einem PC bzw. einer programmierbaren CPU implementiert sein, sofern die Audiosignale digital vorliegen. Elektrische Tonsignale, die mit solchen Audiomischpulten verarbeitet werden können, können außer von Mikrofonen auch von anderen Zuspielern, beispielsweise von Instrumenten und Effektgeräten oder dergleichen herrühren. Jedes Einzeltonsignal bzw. jedes zu verarbeitende Audiosignal kann dabei einem separaten Kanalzug am Mischpult zugeordnet werden, wobei ein Kanalzug mehrere Funktionalitäten zur klanglichen Veränderung des assoziierten Audiosignals bereitstellen kann, beispielsweise eine Veränderung der Lautstärke, eine Filterung, eine Mischung mit anderen Kanalzügen, eine Verteilung bzw. ein Splitten des betreffenden Kanals oder dergleichen.
Bei der Aufnahme von komplexen Audioszenen, beispielsweise von Konzertmitschnitten, ist es häufig die Aufgabe, das Tonsignal bzw. die abgemischte Aufnahme so zu erzeugen, dass für einen Hörer beim Abhören der Aufnahme ein möglichst originalgetreuer Klangein- druck entsteht. Dabei muss diese sogenannte Abmischung der ursprünglich aufgenommenen Mikrofon- bzw. Quellsignale für unterschiedliche Wiedergabekonfigurationen möglicherweise unterschiedlich erfolgen, beispielsweise für unterschiedliche Anzahlen an Ausgangs- Kanälen bzw. Lautsprechern. Beispiele hierfür wären eine Stereo-Konfiguration und Mehrkanalkonfigurationen wie beispielsweise 4.0, 5.1 oder dergleichen. Um eine solche räumli- che Tonmischung bzw. Abmischung erstellen zu können, wird bislang für jede Schallquelle bzw. für jedes Mikrofon- bzw. Quellsignal die Lautstärke am jeweiligen Kanalzug so eingestellt, dass für die gewünschte Abhörkonfiguration die vom Tonmeister gewünschte Räumlichkeit entsteht. Dies wird überwiegend dadurch erreicht, dass durch sogenannte Panning- Algorithmen die Lautstärke zwischen mehreren Wiedergabekanälen bzw. Lautsprechern so verteilt wird, dass eine Phantomschallquelle zwischen den Lautsprechern entsteht, um einen räumlichen Eindruck zu erzielen. Das bedeutet, beim Zuhörer entsteht auf Grund der unterschiedlichen Lautstärken für die einzelnen Wiedergabekanäle beispielsweise der Eindruck, das wiedergegebene Objekt befinde sich räumlich zwischen den Lautsprechern. Um dies zu ermöglichen muss bislang jeder Kanal basierend auf der realen Position des aufzeichnenden Mikrofons innerhalb der akustischen Szene von Hand justiert und mit einer teilweise erheblichen Anzahl weiterer Mikrofone abgeglichen werden.
Noch komplizierter und zeit- bzw. kostenaufwendiger werden derartige Tonmischungen, wenn beim Zuhörer der Eindruck entstehen soll, die aufgezeichnete Schallquelle bewege sich. Dann muss für jede der zeitlich veränderlichen räumlichen Konfigurationen bzw. für jeden Zeitschritt innerhalb der Bewegung einer Schallquelle die Lautstärke für alle beteiligten Kanalzüge von Hand nachjustiert werden, was nicht nur äußerst aufwändig, sondern auch fehleranfällig ist.
In manchen Szenarien, beispielsweise bei der Aufnahme eines Symphonieorchesters, wird eine hohe Anzahl von Mikrofon- bzw. Quellsignalen von beispielsweise über 100 gleichzeitig aufgenommen und möglicherweise in Echtzeit zu einer Tonmischung verarbeitet. Um eine solche räumliche Abmischung zu erzielen, muss bislang der Bediener bzw. Tonmeister an einem herkömmlichen Mischpult zumindest im Vorfeld der eigentlichen Aufnahme die räumliche Beziehung zwischen den einzelnen Mikrofon- bzw. Quellsignalen dadurch erzeugen, das dieser zunächst die Positionen der Mikrofone und deren Zuordnung zu den einzelnen Kanalzügen von Hand notiert, um die Lautstärken und möglicherweise andere Parameter wie beispielsweise eine Verteilung von Lautstärken für mehrere Kanäle oder Hall (Pan und Hall) der einzelnen Kanalzüge so zu regeln, dass die Tonmischung an der gewünschten Abhörposition bzw. für eine gewünschte Lautsprecheranordnung den angestrebten räumlichen Effekt erzielt. Bei einem Symphonieorchester mit mehr als 100 Instrumenten, von denen jedes als direktes Quellsignal separat aufgezeichnet wird, kann dies eine nahezu unlösbare Aufgabe darstellen. Um auch nach der Aufnahme eine der Realität vergleichbare räum- liehe Anordnung der aufgezeichneten Quellsignale der Mikrofone im Mischpult nachzubilden, wurden bisher die Positionen der Mikrofone von Hand skizziert oder deren Positionen nummeriert um dann durch eine Lautstärkeeinstellung aller Einzelkanalzüge die räumliche Tonmischung in einer aufwändigen Prozedur nachbilden zu können. Bei einer sehr großen Anzahl von aufzunehmenden Mikrofonsignalen stellt jedoch nicht allein das nachfolgende Abmischen einer erfolgreichen Aufnahme eine große Herausforderung dar.
Vielmehr ist es bei einer großen Anzahl von aufzuzeichnenden Quellsignalen schon eine schwer zu lösende Aufgabe, sicherzustellen, dass sämtliche Mikrofonsignale störungsfrei am Mischpult bzw. an einer zur Tonmischung verwendeten Software angeliefert werden. Dies muss bislang überprüft werden, indem der Tonmeister bzw. ein Bediener eines Mischpultes alle Kanalzüge getrennt durchhört bzw. überprüft, was sehr zeitaufwendig ist und im Falle des Auftretens eines Störsignals, dessen Ursprung nicht sofort lokalisiert werden kann, eine zeitaufwendige Fehlersuche zur Folge hat. Beim Durchhören bzw. An- und Ausschalten von einzelnen Kanälen bzw. Quellsignalen muss darüber hinaus genau darauf geachtet werden, dass die zusätzlichen Aufzeichnungen, die das Mikrofonsignal und die Position derselben während der Aufzeichnung mit dem Kanal des Mischpults assoziieren, fehlerfrei sind. Allein diese Kontrolle kann bei großen Aufnahmen mehrere Stunden in Anspruch nehmen, wobei darüber hinaus Fehler, die bei der komplexen Kontrolle gemacht werden, im Nachhinein schwer oder überhaupt nicht mehr zu kompensieren sind, nachdem die Aufnahme abgeschlossen ist.
Es besteht also die Notwendigkeit, bei der Aufnahme von akustischen Szenen mittels zumindest zwei Mikrofonen ein Konzept bereitzustellen, das das Anfertigen und/oder das Abmischen der Aufzeichnung effizienter und mit geringerer Fehleranfälligkeit ermöglichen kann.
Diese Aufgabe wird durch ein Mischpult, einen Tonsignalerzeuger, ein Verfahren und ein Computerprogramm jeweils mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.
Einige Ausführungsbeispiele der vorliegenden Erfindung ermöglichen dies insbesondere durch Verwendung eines Tonsignalerzeugers zum Bereitstellen eines Tonsignals für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als ein erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als ein zweites Quellsignal aufgezeichnet wird. Um dies zu ermöglichen, weist der Tonsignalerzeuger eine Eingangs schnittsteile auf, um die von dem ersten Mikrofon und von dem zweiten Mikrofon aufgenommenen ersten und zweiten Quellsignale zu empfangen. Ein Geometrieprozessor innerhalb des Tonsignalerzeugers ist ausgebildet, um basierend auf der ersten Position und der virtuellen Abhörposition eine einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition (202) umfassende erste Geometrieinformation und um basierend auf der zweiten Position und der virtuellen Abhörposition eine einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition (202) umfassende zweite Geometrieinformation zu bestimmen, sodass diese von einem Signalerzeuger, der zum Bereitstellen des Tonsignales dient, berücksichtigt werden können. Dazu ist der Signalerzeuger ausgebildet, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer Kombinationsregel zu kombinieren, um das Tonsignal zu erhalten. Dabei erfolgt gemäß den Ausführungsbeispielen der vorliegenden Erfindung die Kombination unter Verwendung der ersten Geometrieinformation und der zweiten Geometrieinformation. Das heißt, gemäß den Ausführungsbeispielen der vorliegenden Erfindung kann für eine virtuelle Abhörposition, an der sich in der abzumischenden bzw. aufzuzeichnenden akustischen Szene kein reales Mikrofon befinden muss, aus zwei Quellsignalen, die mittels realer Mikrofone aufgezeichnet werden, ein Tonsignal erzeugt werden, das der räumlichen Wahrnehmung am Ort der virtuellen Abhörposition entsprechen oder ähneln kann. Dies kann beispielsweise insbesondere dadurch erreicht werden, dass Geometrieinformationen, die beispielsweise die Relativposition zwischen den Positionen der realen Mikrofone und der virtuellen Abhörposition angeben, direkt bei der Bereitstellung bzw. Erzeugung des Tonsignals für die virtuelle Abhörposition verwendet werden. Dies kann daher ohne aufwendige Berechnungen möglich sein, sodass die Bereitstellung des Tonsignals in Echtzeit oder näherungsweise in Echtzeit erfolgen kann. Das direkte Verwenden von Geometrieinformationen zum Erzeugen eines Tonsignals für eine virtuelle Abhörposition kann es ferner ermöglichen, durch einfaches Verschieben bzw. Verändern der Position bzw. der Koordinaten der virtuellen Abhörposition eine Tonmischung zu erstellen, ohne dass die möglicherweise große Anzahl von Quellsignalen individuell und manuell angepasst werden müsste. Das Erstellen einer individuellen Tonmischung kann beispielsweise auch eine effiziente Kontrolle des Setups vor der eigentlichen Aufzeichnung ermöglichen, wobei beispielsweise die Aufnahmequalität bzw. die Anordnung der realen Mikrofone in der Szene dadurch kontrolliert werden kann, dass die virtuelle Abhörposition innerhalb der akustischen Szene bzw. innerhalb des akustischen Raumes frei bewegt wird, sodass ein Toningenieur unmittelbar ein automatisches akustisches Feedback erhalten kann, ob die einzelnen Mikrofone korrekt verkabelt sind bzw. ob diese ordnungsgemäß funktionieren. Beispielsweise kann so die Funktionalität jedes einzelnen Mikrofones überprüft werden, ohne dass sämtliche der anderen Mikrofone ausgeblendet werden müss- ten, wenn die virtuelle Abhörposition nahe an die Position eines der realen Mikrofone herangeführt wird, sodass dessen Anteil am bereitgestellten Tonsignal dominiert. Dies wiede- rum ermöglicht eine Kontrolle des von dem betreffenden Mikrofon aufgezeichneten Quellbzw. Audiosignals.
Ferner können es Ausführungsbeispiele der Erfindung eventuell ermöglichen, sogar beim Auftreten eines Fehlers während einer Liveaufnahme durch schnelles Identifizieren des Feh- lers so schnell eingreifen und den Fehler beheben zu können, beispielsweise durch den Tausch eines Mikrofons oder eines Kabels, dass wenigstens große Teile des Konzerts noch fehlerfrei mitgeschnitten werden können. Ferner ist es gemäß den Ausführungsbeispielen der vorliegenden Erfindung möglicherweise nicht mehr erforderlich, die Position einer Vielzahl von Mikrofonen, die zur Aufnahme einer akustischen Szene verwendet werden, unabhängig von den Quellsignalen aufzuzeichnen bzw. zu skizzieren, um im Nachhinein die räumliche Anordnung der aufzeichnenden Mikrofone bei der Abmischung des die akustische Szene repräsentierenden Signals nachzubilden. Vielmehr können gemäß einigen Ausführungsbeispielen die vorbekannten Positionen der die Quellsignale aufzeichnenden Mikrofone innerhalb des akustischen Raumes als Steuerparameter bzw. Eigenschaft von einzelnen Kanalzügen in einem Audiomischpult direkt berücksichtigt und zusammen mit dem Quellsignal konserviert bzw. aufgezeichnet werden. Einige Ausführungsbeispiele der vorliegenden Erfindung sind ein Mischpult zum Verarbeiten zumindest eines ersten und eines zweiten Quellsignals und zum Bereitstellen eines abgemischten Tonsignals, wobei das Mischpult einen Tonsignalerzeuger zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als das erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als das zweite Quellsignal aufgezeichnet wird, wobei der Tonsignalerzeuger umfasst: eine Eingangsschnittstelle, die ausgebildet ist, um das von dem ersten Mikrofon aufgenommene erste Quellsignal und das von dem zweiten Mikrofon aufgenommene zweite Quellsignal zu empfangen; einem Geo- metrieprozessor, der ausgebildet ist, um basierend auf der ersten Position und der virtuellen Abhörposition eine erste Geometrieinformation und um basierend auf der zweiten Position und der virtuellen Abhörposition eine zweite Geometrieinformation zu bestimmen; und einem Signalerzeuger zum Bereitstellen des Tonsignales, wobei der Signalerzeuger ausgebildet ist, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel zu kombinieren. Dies kann es einem Bediener eines Mischpultes ermöglichen, eine Kontrolle beispielsweise der Mikrofonverkabelung vor einer Aufnahme einfach, effizient und ohne hohe Fehlerwahrscheinlichkeit durchzuführen. Gemäß einigen Ausführungsbeispielen weist das Mischpult ferner eine Benutzerschnittstelle auf, die ausgebildet ist, um eine grafische Repräsentation der Positionen einer Mehrzahl von Mikrofonen sowie eine oder mehrere virtuelle Abhörposition anzuzeigen. Das heißt, einige Ausführungsbeispiele von Mischpulten erlauben es darüber hinaus, ein Abbild der geometrischen Verhältnisse bei der Aufzeichnung der akustischen Szene grafisch darzustellen, was einem Toningenieur auf einfache und intuitive Art und Weise ermöglichen kann, eine räumliche Abmischung zu erstellen bzw. ein Mikrofon-Setup zur Aufnahme einer komplexen akustischen Szene zu kontrollieren oder aufzubauen bzw. zu justieren.
Gemäß einigen weiteren Ausführungsbeispielen umfasst ein Mischpult zusätzlich eine Eingabeeinrichtung, die ausgebildet ist, um zumindest die virtuelle Abhörposition einzugeben bzw. zu verändern, insbesondere durch direkte Interaktion bzw. Beeinflussung der grafischen Repräsentation der virtuellen Abhörposition. Dies ermöglicht es auf besonders intuiti- ve Art und Weise, eine Kontrolle einzelner Abhörpositionen bzw. von mit diesen Positionen assoziierten Mikrofonen durchzuführen, indem beispielsweise die virtuelle Abhörposition innerhalb der akustischen Szene bzw. des akustischen Raumes mit der Maus oder mittels des Fingers und eines berührungsempfindlichen Bildschirmes (Touchscreen) an den gerade interessierenden Ort verschoben werden kann.
Einige weitere Ausführungsbeispiele von Mischpulten erlauben es darüber hinaus, über die Eingabeschnittstelle jedes der Mikrofone als zu einem bestimmten von mehreren unterschiedlichen Mikrofon-Typen gehörend zu charakterisieren. Insbesondere kann ein Mikrofon-Typ zu Mikrofonen korrespondieren, die aufgrund ihrer geometrischen Relativposition bezüglich den Objekten bzw. Schallquellen der aufzunehmenden akustischen Szene überwiegend einen direkten Schallanteil aufzeichnen. Ein zweiter Mikrofontyp kann aus demselben Grund primär einen diffusen Schallanteil aufnehmende Mikrofone kennzeichnen. Die Möglichkeit der Zuordnung der einzelnen Mikrofone zu unterschiedlichen Typen kann dazu beispielsweise dazu dienen, die Quellsignale, die von den unterschiedlichen Typen aufge- zeichnet werden, mit sich jeweils unterscheidenden Kombinationsregeln miteinander zu kombinieren, um das Tonsignal für die virtuelle Abhörposition zu erhalten.
Dies kann gemäß einigen Ausführungsbeispielen insbesondere dafür verwendet werden, unterschiedliche Kombinations- bzw. Superpositionsregeln für Mikrofone, die überwiegend diffusen Schall aufzeichnen und für solche Mikrofone, die überwiegend Direktschall aufzeichnen, zu verwenden, um zu einem natürlichen Klangeindruck bzw. zu einem Signal zu gelangen, das für die gegebene Anforderung vorteilhafte Eigenschaften aufweist. Gemäß einigen Ausführungsbeispielen, bei denen das Tonsignal unter Bilden einer gewichteten Summe von zumindest einem ersten und einem zweiten Quellsignal erzeugt wird, werden beispielsweise die Gewichte für die unterschiedlichen Mikrofontypen unterschiedlich bestimmt. Beispielsweise kann so bei Mikrofonen, die überwiegend Direktschall aufzeichnen, ein der Realität entsprechender Abfall der Lautstärke mit zunehmendem Abstand von dem Mikrofon über einen geeignet gewählten Gewichtsfaktor implementiert werden. Gemäß einigen Ausführungsbeispielen ist das Gewicht proportional zu dem Inversen einer Potenz des Abstands des Mikrofons zu der virtuellen Abhörposition. Gemäß einigen Ausführungsbeispielen ist das Gewicht proportional zu dem Inversen des Abstands, was zu der Schallausbreitung einer idealisierten punktförmigen Schallquelle korrespondiert. Gemäß einigen Ausführungsbeispielen sind für Mikrofone, die dem ersten Mikrofon-Typ, also der Auf- Zeichnung von Direktschall, zugeordnet sind, die Gewichtsfaktoren proportional zu dem mit einem Nahfeldradius multiplizierten Inversen des Abstands des Mikrofons zu der virtuellen Abhörposition. Dies kann zu einer verbesserten Wahrnehmung des Tonsignales führen, indem der angenommene Einfluss eines Nahfeldradius berücksichtigt wird, innerhalb dessen eine konstante Lautstärke des Quellsignals angenommen wird.
Gemäß einigen Ausführungsbeispielen der Erfindung wird auch für Mikrofone, die einem zweiten Mikrofon-Typ zugeordnet sind und mittels denen überwiegend diffuse Schallanteile aufgezeichnet werden, das Tonsignal aus den aufgenommenen Quellsignalen xi und x2 mittels Bilden einer gewichteten Summe erzeugt, wobei die Gewichte gi und g2 von den Rela- tivpositionen der Mikrofone abhängen und gleichzeitig eine zusätzliche Randbedingung erfüllen. Insbesondere ist gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung die Summe der Gewichte G = gi + g2 oder eine quadratische Summe der Gewichte G2 = gi2 + g2 2 konstant und insbesondere eins. Dies kann zu einer Kombination der Quellsignale führen, bei der eine Lautstärke des erzeugten Tonsignals für unterschiedliche Rela- tivpositionen zwischen den Mikrofonen zumindest näherungsweise einer Lautstärke eines jeden der Quellsignale entspricht, was wiederum zu einer guten Wahrnehmungsqualität des erzeugten Tonsignales führen kann, da die diffusen Signalanteile innerhalb eines akustischen Raumes näherungsweise identische Lautstärke aufweisen. Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung wird aus den Quellsignalen zunächst mittels zweier gewichteter Summen mit unterschiedlichen Gewichten ein erstes Zwischensignal und ein zweites Zwischensignal gebildet. Aus dem ersten und zweiten Zwischensignal wird dann mittels einer weiteren gewichteten Summe das Tonsignal bestimmt, wobei die Gewichte von einem Korrelations-Koeffizienten zwischen dem ersten und dem zweiten Quellsignal abhängig sind. Dies kann es ermöglichen, abhängig von der Ähnlichkeit der beiden aufgezeichneten Quellsignale Kombinationsregeln bzw. Panning- Verfahren derart gewichtet miteinander zu kombinieren, dass Lautstärkeüberhöhungen, wie sie abhängig vom gewählten Verfahren und den zu kombinierenden Signalen prinzipiell auftreten können, weiter verringert werden. Dies kann möglicherweise dazu führen, dass eine Gesamtlautstärke des erzeugten Tonsignals unabhängig von den kombinierten Signalformen näherungsweise konstant bleibt, sodass der vermittelte räumliche Eindruck auch weitestgehend ohne ein a-priori Wissen über das Quellsignal dem Gewünschten entspricht. Gemäß einigen weiteren Ausführungsbeispielen werden in Bereichen, in denen die virtuelle Abhörposition von drei jeweils ein Quellsignal aufzeichnenden Mikrofonen umgeben ist, die Tonsignale, insbesondere, was deren diffuse Schallanteile angeht, unter Verwendung der drei Quellsignale gebildet. Das Bereitstellen des Tonsignals umfasst dabei das Erzeugen einer gewichteten Summe der drei aufgezeichneten Quellsignale. Die den Quellsignalen zugeordneten Mikrofone bilden ein Dreieck, wobei die Gewichte für ein Quellsignal basierend auf einer senkrechten Projektion der virtuellen Abhörposition auf diejenige Höhe des Dreiecks, die durch die Position des betreffenden Mikrofone verläuft, bestimmt werden. Dabei können unterschiedliche Verfahren zum Bestimmen der Gewichte verwenden werden. Dennoch kann die Lautstärke näherungsweise unverändert bleiben, auch wenn drei statt nur zwei Quellsignale kombiniert werden, was zu einer klanglich realistischeren Wiedergabe des Schallfeldes an der virtuellen Abhörposition beitragen kann.
Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung werden entweder das erste oder das zweite Quellsignal vor der Kombination der beiden Quellsignale um eine Verzögerungszeit verzögert, wenn ein Vergleich der ersten Geometrieinformation und der zweiten Geometrieinformation ein vorbestimmtes Kriterium erfüllt, insbesondere wenn die beiden Abstände weniger als einen zulässigen Minimalabstand voneinander abweichen. Dies kann es ermöglichen, die Tonsignale zu erzeugen, ohne dass Klangverfärbungen entstehen, die möglicherweise durch die Superposition eines Signals, das in geringem räumli- chen Abstand zueinander aufgezeichnet wurde, erzeugt werden könnten. Gemäß einigen Ausführungsbeispielen wird insbesondere auf effiziente Art und Weise jedes der verwendeten Quellsignale derart verzögert, dass seine Laufzeit bzw. Latenz der maximalen Signallaufzeit vom Ort aller beteiligten Mikrofone zur virtuellen Abhörposition entspricht, sodass destruktive Interferenzen ähnlicher oder identischer Signale durch eine erzwungene identische Signallaufzeit vermieden werden können.
Gemäß einigen weiteren Ausführungsbeispielen werden bei der Superposition bzw. gewichteten Summation der Quellsignale ferner Richtungsabhängigkeiten berücksichtigt, das heißt, der virtuellen Abhörposition kann eine Vorzugsrichtung und eine bezüglich der Vorzugsrichtung angegebene Richtcharakteristik zugeordnet werden. Dies kann es ermöglichen, beim Erzeugen des Tonsignals eine realitätsnahe Wirkung zu erzielen, indem zusätzlich eine bekannte Richtcharakteristik, beispielsweise eines realen Mikrofons oder des menschlichen Gehörs berücksichtigt wird.
Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:
Figur 1: Ein Ausführungsbeispiel eines Tonsignalerzeugers;
Figur 2: Eine Illustration einer akustischen Szene, deren Quellsignale mit
Ausführungsbeispielen von Tonsignalerzeugern verarbeitet werden;
Figur 3: Ein Beispiel für eine Kombinationsregel zum Erzeugen eines Tonsignals gemäß einigen Ausführungsbeispielen der Erfindung;
Figur 4: Eine Illustration zur Verdeutlichung eines weiteren Beispiels einer
möglichen Kombinationsregel;
Figur 5: Eine grafische Illustration einer Kombinationsregel zur Verwendung
mit drei Quellsignalen;
Figur 6 Eine Illustration einer weiteren Kombinationsregel;
Figur 7 Eine Illustration einer richtungsabhängigen Kombinationsregel;
Figur 8 Eine schematische Darstellung eines Ausführungsbeispiels
eines Mischpults;
Figur 9: Eine schematische Darstellung eines Ausführungsbeispiels
Verfahrens zum Erzeugen eines Tonsignals; und Figur 10: Eine schematische Darstellung eines Ausführungsbeispiels einer Benutzerschnittstelle.
Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Dickenabmessungen von Linien, Schichten und/oder Regionen um der Deutlichkeit Willen übertrieben dargestellt sein.
Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exempla- rische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen. Ferner können zusammenfassende Bezugszeichen für Komponenten und Objekte verwendet werden, die mehrfach in einem Ausführungsbeispiel oder in einer Zeichnung auftreten, jedoch hinsichtlich eines oder mehrerer Merkmale gemeinsam beschrieben werden. Komponenten oder Objekte, die mit gleichen oder zusammenfassenden Bezugszeichen beschrieben werden, können hinsichtlich einzelner, mehrerer oder aller Merkmale, beispielsweise ihrer Dimensionierungen, gleich, jedoch gegebenenfalls auch unterschiedlich ausgeführt sein, sofern sich aus der Beschreibung nicht etwas anderes explizit oder implizit ergibt. Obwohl Ausführungsbeispiele auf verschiedene Weise modifiziert und abgeändert werden können, sind Ausführungsbeispiele in den Figuren als Beispiele dargestellt und werden hierin ausführlich beschrieben. Es sei jedoch klargestellt, dass nicht beabsichtigt ist, Ausführungsbeispiele auf die jeweils offenbarten Formen zu beschränken, sondern dass Ausführungsbeispiele vielmehr sämtliche funktionale und/oder strukturelle Modifikationen, Äqui- valente und Alternativen, die im Bereich der Erfindung liegen, abdecken sollen. Gleiche Bezugszeichen bezeichnen in der gesamten Figurenbeschreibung gleiche oder ähnliche Elemente.
Man beachte, dass ein Element, das als mit einem anderen Element„verbunden" oder„verkoppelt" bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Wenn ein Element dagegen als„direkt verbunden" oder„direkt verkoppelt" mit einem anderen Element bezeichnet wird, sind keine dazwischenliegenden Elemente vorhanden. Andere Begriffe, die verwendet werden, um die Beziehung zwischen Elementen zu beschreiben, sollten auf ähn- liehe Weise interpretiert werden (z.B.,„zwischen" gegenüber„direkt dazwischen",„angrenzend" gegenüber„direkt angrenzend" usw.).
Die Terminologie, die hierin verwendet wird, dient nur der Beschreibung bestimmter Aus- führungsbeispiele und soll die Ausführungsbeispiele nicht beschränken. Wie hierin verwendet, sollen die Singularformen„ einer,"„ eine",„eines " und„der, die, das" auch die Pluralformen beinhalten, solange der Kontext nicht eindeutig etwas anderes angibt. Ferner sei klargestellt, dass die Ausdrücke wie z.B.„beinhaltet",„beinhaltend", aufweist" und/oder „aufweisend", wie hierin verwendet, das Vorhandensein von genannten Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen und/oder Komponenten angeben, aber das Vorhandensein oder die Hinzufügung von einem bzw. einer oder mehreren Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen. Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst. Ferner sei klargestellt, dass Ausdrücke, z.B. diejenigen, die in allgemein verwendeten Wörterbüchern definiert sind, so zu interpretieren sind, als hätten sie die Bedeu- tung, die mit ihrer Bedeutung im Kontext der einschlägigen Technik konsistent ist, und nicht in einem idealisierten oder übermäßig formalen Sinn zu interpretieren sind, solange dies hierin nicht ausdrücklich definiert ist.
Figurl zeigt in schematischer Darstellung ein Ausführungsbeispiel eines Tonsignalerzeu- gers 100, der eine Eingangs schnittsteile 102, einen Geometrieprozessor 104 und einen Signalerzeuger 106 umfasst. Der Tonsignalerzeuger 100 dient zum Bereitstellen eines Tonsignals für eine virtuelle Abhörposition 202 innerhalb eines Raumes 200, der in Figur 1 lediglich schematisch angedeutet ist. In dem Raum 200 wird mittels zumindest eines ersten Mikrofons 204 und eines zweiten Mikrofons 206 eine akustische Szene aufgezeichnet. Die Quelle 208 der akustischen Szene ist hier lediglich schematisch als ein Gebiet innerhalb des Raumes 200 dargestellt, innerhalb dessen eine Mehrzahl von Schallquellen angeordnet sind bzw. sein können, die zu einem als akustische Szene bezeichneten Schallfeld innerhalb des Raumes 200 führen, welches wiederum mittels der Mikrofone 204 und 206 aufgezeichnet wird. Die Eingangs schnittsteile 102 ist ausgebildet, um ein von dem ersten Mikrofon 204 aufgenommenes erstes Quellsignal 210 und ein von dem zweiten Mikrofon 206 aufgenommenes zweites Quellsignal 212 zu empfangen. Dabei können das erste und das zweite Quellsignal 210 und 212 sowohl analoge als auch digitale Signale sein, die sowohl kodiert als auch un- kodiert von den Mikrofonen übermittelt werden können. Das heißt, gemäß einiger Ausführungsbeispiele können die Quellsignale 210 und 212 bereits gemäß einem Kompressionsverfahren, wie beispielsweise dem Advanced Audio Codec (AAC), MPEG 1, Layer 3 (MP3) oder dergleichen kodiert bzw. komprimiert sein.
Das erste und das zweite Mikrofon 204 und 206 befinden sich an vorbekannten Positionen innerhalb des Raumes 200, die auch dem Geometrieprozessor 104 bekannt sind. Der Geometrieprozessor 104 kennt darüber hinaus die Position bzw. die Koordinaten der virtuellen Abhörposition 202 und ist ausgebildet, aus der ersten Position des ersten Mikrofons 204 und der virtuellen Abhörposition 202 eine erste Geometrieinformation 110 zu bestimmen. Der Geometrieprozessor 104 ist ferner ausgebildet, um aus der zweiten Position und der virtuellen Abhörposition 202 eine zweite Geometrieinformation 112 zu bestimmen.
Ein Beispiel für eine derartige Geometrieinformation ist, ohne Anspruch auf Vollständigkeit zu erheben, einen Abstand zwischen der ersten Position und der virtuellen Abhörposition 202 oder eine relative Orientierung zwischen einer Vorzugsrichtung, die der virtuellen Abhörposition 202 zugeordnet ist und einer Position eines der Mikrofone 204 oder 206. Selbstverständlich kann die Geometrie auf beliebige Art und Weise beschrieben sein, beispielsweise mittels kartesischen Koordinaten, sphärischen Koordinaten oder Zylinderkoordinaten in einem ein-, zwei- oder dreidimensionalen Raum. Mit anderen Worten kann die erste Geometrieinformation einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition und die zweite Geometrieinformation einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition umfassenden. Der Signalerzeuger ist ausgebildet, um das Tonsignal unter Kombination des ersten Quellsignals 210 und des zweiten Quellsignals 212 bereitzustellen, wobei die Kombination einer Kombinationsregel folgt, gemäß der sowohl die erste Geometrieinformation 110 als auch die zweite Geometrieinformation 112 berücksichtigt bzw. verwendet werden. Das Tonsignal 120 wird also aus dem ersten und dem zweiten Quellsignal 210 und 212 gewonnen, wobei dabei die erste und die zweite Geometrieinformation 110 bzw. 112 verwendet werden. Das heißt, Informationen über die geometrischen Eigenschaften bzw. Beziehungen zwischen der virtuellen Abhörposition 12 und den Positionen der Mikrofone 204 und 206 werden unmittelbar zur Bestimmung des Tonsignales 120 verwendet.
Durch Variation der virtuellen Abhörposition 202 kann so möglicherweise auf einfache und intuitive Art und Weise ein Tonsignal erhalten werden, das eine Kontrolle einer Funktionalität der in der Nähe der virtuellen Abhörposition 202 angeordneten Mikrofone ermöglicht, ohne dass beispielsweise die Vielzahl der Mikrofone innerhalb eines Orchesters einzeln über die diesen jeweils zugeordneten Kanäle eines Mischpults abgehört werden müssen.
Gemäß den Ausführungsbeispielen, bei denen die erste Geometrieinformation und die zweite Geometrieinformation als zumindest eine Information den ersten Abstand di zwischen der virtuellen Abhörposition 202 und der ersten Position und d2 zwischen der virtuellen Abhörposition 202 und der zweiten Position umfasst, wird zum Erzeugen des Tonsignals 120 unter anderem eine gewichtete Summe des ersten Quellsignals 210 und des zweiten Quellsignals 212 erzeugt. Wenngleich in Figur 1 der Einfachheit halber und zum besseren Verständnis lediglich zwei Mikrofone 204 und 206 dargestellt sind, versteht es sich von selbst, dass gemäß weiteren Ausführungsbeispielen der vorliegenden Erfindung von einem Tonsignalerzeuger 100 eine beliebige Anzahl von Mikrofonen der in Figur 1 schematisch dargestellten Art verwendet werden können, um für eine virtuelle Abhörposition ein Tonsignal zu erzeugen, wie hier und anhand der nachfolgenden Ausführungsbeispiele noch erläutert werden wird.
Das heißt, gemäß einigen Ausführungsbeispielen wird das Tonsignal x aus einer Linearkombination des ersten Quellsignals 210 (xi) und des zweiten Quellsignals 212 (x2) erzeugt, wobei das erste Quellsignal xi mit einem ersten Gewicht gi und das zweite Quellsignal x2 mit einem zweiten Gewicht g2 gewichtet werden, sodass gilt:
X = gl*Xl + g2*x2 .
Gemäß weiteren Ausführungsbeispielen können, wie bereits erwähnt, weitere Quellsignale x3, xn mit dazugehörigen Gewichten g3, gn zusätzlich berücksichtigt werden. Selbstverständlich sind Tonsignale zeitabhängig, wobei vorliegend aus Gründen der Übersicht- lichkeit teilweise auf den expliziten Hinweis auf die Zeitabhängigkeit verzichtet wird und Angaben von Ton- oder Quellsignalen x synonym mit der Angabe x(t) zu verstehen sind.
Figur 2 zeigt schematisch den Raum 200, wobei bei der in Figur 2 gewählten Darstellung angenommen wird, dieser werde von rechtwinkligen Wänden begrenzt, die für das Zustandekommen eines diffusen Schallfeldes verantwortlich zeichnen. Ferner werde vereinfachend angenommen, dass wenngleich in der in Figur 2 dargestellten Quelle 208 innerhalb des eingegrenzten Bereiches eine oder mehrere Schallquellen angeordnet sein können, diese in Bezug auf deren Wirkung für die einzelnen Mikrofone zunächst vereinfacht als eine einzel- ne Quelle betrachtet werden können. Der von diesen Schallquellen ausgestrahlte Direktschall wird von den Wänden, die den Raum 200 begrenzen, mehrfach reflektiert, sodass sich ein von den Mehrfachreflexionen der bereits abgeschwächten Signale erzeugtes diffuses Schallfeld aus unkorreliert überlagerten Signalen ergibt, das zumindest näherungsweise innerhalb des gesamten Raumes eine konstante Lautstärke besitzt. Dieser überlagert ist ein direkter Schallanteil, also derjenige Schall, der von den innerhalb der Quelle 208 befindlichen Schallquellen direkt die möglichen Abhörpositionen, insbesondere also auch die Mikrofone 220 bis 232 erreicht, ohne vorher reflektiert worden zu sein. Das heißt, innerhalb des Raumes 200 kann das Schallfeld konzeptionell idealisiert in zwei Komponenten unterschieden werden, nämlich einen direkten Schallanteil, der vom Ort der Erzeugung des Schalles direkt die entsprechende Abhörposition erreicht und in einen diffusen Schallanteil, der aus einer näherungsweise unkorrelierten Überlagerung einer Vielzahl von direkt abgestrahlten und reflektierten Signalen herrührt.
Bei der in Figur 2 gezeigten Illustration kann aufgrund der räumlichen Nähe der Mikrofone 220 bis 224 zur Quelle 208 angenommen werden, diese zeichnen überwiegend Direktschall auf, das heißt, die Lautstärke bzw. der Schalldruck des von diesen Mikrofonen aufgenommenen Signals rührt überwiegend von einem direkten Schallanteil, der innerhalb der Quelle 208 angeordneten Schallquellen her. Demgegenüber kann beispielsweise angenommen werden, die Mikrofone 226 bis 232 zeichneten ein Signal auf, das überwiegend vom diffusen Schallanteil herrührt, da der räumliche Abstand zwischen der Quelle 208 und den Mikrofonen 226 bis 232 groß ist, sodass die Lautstärke des Direktschalls an diesen Positionen zumindest vergleichbar oder geringer als die Lautstärke des diffusen Schallfeldes ist. Um bei der Erzeugung des Tonsignals für die virtuelle Abhörposition 202 der Reduktion der Lautstärke mit zunehmendem Abstand Rechnung zu tragen, wird gemäß einigen Ausführungsbeispielen der Erfindung ein Gewicht gn für die einzelnen Quellsignale abhängig vom Abstand zwischen der virtuellen Abhörposition 202 und den verwendeten Mikrofonen 220 bis 232 zur Aufzeichnung der Quellsignale gewählt. Figur 3 zeigt exemplarisch eine Möglichkeit zur Bestimmung eines derartigen Gewichtes bzw. eines derartigen Faktors zur Multiplikation mit dem Quellsignal, wobei hier als Beispiel das Mikrofon 222 gewählt wurde. Wie Figur 3 schematisch illustriert, wird gemäß einigen Ausführungsbeispielen das Gewicht gn proportional zu dem Inversen einer Potenz des ersten Abstandes di gewählt, also:
Figure imgf000018_0001
Gemäß einigen Ausführungsbeispielen wird als Potenz n=l gewählt, das heißt, das Gewicht bzw. der Gewichtsfaktor ist invers proportional zum Abstand di, eine Abhängigkeit, die in etwa der Freifeldausbreitung einer punktförmigen gleichförmig abstrahlenden Schallquelle entspricht. Das heißt, gemäß einigen Ausführungsbeispielen wird angenommen, dass die Lautstärke invers proportional zum Abstand 240 ist. Gemäß einigen weiteren Ausführungsbeispielen wird zusätzlich für einige oder für alle der Mikrofone 220 bis 232 ein sogenannter Nahfeldradius 242 (r berücksichtigt. Der Nahfeldradius 242 korrespondiert dabei zu einem Bereich unmittelbar um eine Schallquelle, insbesondere zu dem Bereich, innerhalb dessen die Schallwelle bzw. die Schallfront gebildet wird. Innerhalb des Nahfeldradius wird der Schalldruckpegel bzw. die Lautstärke des Audiosignals als konstant angenommen. In einer einfachen Modellvorstellung mag dabei angenommen werden, dass innerhalb einer einzelnen Wellenlänge eines Audio- bzw. Tonsignals keine signifikante Dämpfung im Medium auftritt, sodass zumindest innerhalb einer einzelnen Wellenlänge (korrespondierend zum Nahfeldradius) der Schalldruck konstant ist. Daraus ergibt sich, dass der Nahfeldradius auch frequenzabhängig sein kann.
Durch die analoge Verwendung des Nahfeldradius gemäß einigen Ausführungsbeispielen der Erfindung kann ein Tonsignal an der virtuellen Abhörposition 202 erzeugt werden, in- dem die für die Kontrolle der akustischen Szene bzw. der Konfiguration und Verkabelung der einzelnen Mikrofone relevanten Größen besonders deutlich gewichtet werden, wenn sich die virtuelle Abhörposition 202 einer der realen Positionen der Mikrofone 220 bis 232 nähert. Wenngleich gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung für den Nahfeldradius r eine frequenzunabhängige Größe angenommen wird, kann gemäß eini- gen weiteren Ausführungsbeispielen eine Frequenzabhängigkeit des Nahfeldradius implementiert sein. Gemäß einigen Ausführungsbeispielen wird also zur Erzeugung des Tonsignals angenommen, innerhalb eines Nahfeldradius r um eines der Mikrofone 220 bis 232 sei die Lautstärke konstant. Gemäß einigen weiteren Ausführungsbeispielen wird, um die Be- rechnung des Signals zu vereinfachen und dem Einfluss eines Nahfeldradius möglicherweise dennoch Rechnung zu tragen, als allgemeine Rechenvorschrift angenommen, das Gewicht gi sei proportional zu einem Quotienten aus dem Nahfeldradius ri des betrachteten Mikrofons 222 und dem Abstand di von virtueller Abhörposition 202 und Mikrofon 222, sodass gilt:
Figure imgf000019_0001
Eine solche Parametrisierung bzw. Entfernungsabhängigkeit kann sowohl den Überlegungen zum Nahfeld als auch den Überlegungen zum Fernfeld Rechnung tragen. Wie bereits oben erwähnt, schließt sich an das Nahfeld einer punktförmigen Schallquelle ein Fernfeld an, in dem sich bei Freifeldausbreitung der Schalldruck mit jeder Verdopplung der Entfernung von der Schallquelle halbiert, der Pegel sich also um jeweils 6 dB verringert. Diese Eigenschaft ist auch als Abstandsgesetz bzw. 1/r- Gesetz bekannt. Auch wenn gemäß einigen Ausführungsbeispielen der Erfindung Quellen 208 aufgenommen werden mögen, deren Schallquellen gerichtet abstrahlen, kann möglicherweise von punktförmigen Schallquellen ausgegangen werden, wenn, nicht eine realitätsgetreue Wiedergabe des Schallfeldes am Ort der virtuellen Abhörposition 202 im Vordergrund steht, sondern vielmehr die Möglichkeit, die Mikrofone bzw. die Aufnahmequalität einer komplexen akustischen Szene schnell und effizient kontrollieren bzw. durchhören zu können. Wie bereits in Figur 2 angedeutet, können gemäß einigen Ausführungsbeispielen die Nah- feldradii für unterschiedliche Mikrofone unterschiedlich gewählt werden. Insbesondere kann dabei den unterschiedlichen Mikrofon-Typen Rechnung getragen werden. Als Mikrofon- Typ soll hierin eine Information verstanden werden, die, losgelöst von dem tatsächlichen Aufbau des einzelnen Mikrofons, eine Eigenschaft des Mikrofons oder dessen Verwendung beschreibt, die sich von einer identischen Eigenschaft oder Verwendung eines weiteren Mikrofons unterscheidet, das ebenfalls zur Aufnahme der Quelle 208 verwendet wird. Ein Beispiel für eine solche Unterscheidung ist die Unterscheidung zwischen Mikrofonen eines ersten Typs (Typ„D" in Figur 2), die aufgrund ihrer geometrischen Positionierung überwiegend Direktschallanteile aufnehmen und solchen Mikrofonen, die aufgrund des größeren Abstands bzw. einer anderen Relativposition bezüglich der Quelle 208 überwiegend das diffuse Schallfeld aufnehmen bzw. aufzeichnen (Mikrofone vom Typ„A" in Figur 2). Insbesondere bei einer solchen Aufteilung der Mikrofone in unterschiedliche Mikrofon-Typen kann die Verwendung von unterschiedlichen Nahfeldradii sinnvoll sein. Dabei wird gemäß einigen Ausführungsbeispielen der Nahfeldradius der Mikrofone vom Typ A größer gewählt als derjenige für die Mikrofone vom Typ D, was zu einer einfachen Möglichkeit der Kontrolle der einzelnen Mikrofone führen kann, wenn die virtuelle Abhörposition 202 in deren Nähe gesetzt wird, ohne die physikalischen Gegebenheiten bzw. den Klangeindruck grob zu verfälschen, insbesondere da das diffuse Schallfeld, wie oben dargestellt, über große Gebie- te näherungsweise gleich laut ist.
Allgemein gesprochen verwenden Tonsignalerzeuger 100 gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung zum Kombinieren der Quellsignale unterschiedliche Kombinationsregeln, wenn die Mikrofone, die die jeweiligen Quellsignale aufzeichnen, unterschiedlichen Mikrofon-Typen zugeordnet sind. Das heißt, eine erste Kombinationsregel wird verwendet, wenn die beiden zu kombinierenden Mikrofone einem ersten Mikrofon- Typ zugeordnet sind und eine zweite Kombinationsregel wird verwendet, wenn die beiden zu kombinierenden Mikrofone bzw. die von diesen Mikrofonen aufgezeichneten Quellsignale einem zweiten, unterschiedlichen Mikrofontyp zugeordnet sind.
Insbesondere können gemäß einigen Ausführungsbeispielen die Mikrofone jedes unterschiedlichen Typs zunächst vollständig voneinander getrennt verarbeitet und zu je einem Teilsignal xvirt kombiniert werden, woraufhin in einem abschließenden Schritt vom Tonsignalerzeuger bzw. einem verwendeten Mischpult das endgültige Signal durch Kombination der vorher erzeugten Teilsignale erzeugt wird. Angewendet auf die in Figur 2 dargestellte akustische Szene bedeutete dies beispielsweise, dass zunächst ein Teilsignal XA für die virtuelle Abhörposition 202 bestimmt werden kann, welches lediglich die Mikrofone 226 bis 232 von Typ A berücksichtigt. Zeitgleich oder vorher bzw. nachher könnte ein zweites Teilsignal xD für die virtuelle Abhörposition 202 bestimmt werden, das lediglich die Mikrofone vom Typ D, also die Mikrofone 220 bis 224 berücksichtigt, diese jedoch gemäß einer anderen Kombinationsregel miteinander kombiniert. In einem abschließenden Schritt könnte dann das endgültige Tonsignal x für die virtuelle Abhörposition 202 durch Kombination dieser beiden Teilsignale erzeugt werden, insbesondere durch eine Linearkombination des ersten Teilsignals XD, das mittels der Mikrofone des ersten Typs (D) gewonnen wurde und eines zweiten Teilsignals XA, das mittels der Mikrofone des zweiten Typs (A) gewonnen wurde, sodass gilt:
x=xA+xD. Figur 4 zeigt eine der Figur 2 ähnliche schematische Ansicht einer akustischen Szene zusammen mit Positionen von Mikrofonen 220 bis 224, die Direktschall aufnehmen und eine Reihe von Mikrofonen des Typs A, von denen nachfolgend insbesondere die Mikrofone 250 bis 256 betrachtet werden sollen. Anhand dieser werden einige Möglichkeiten diskutiert, mit welchen Kombinationsregeln ein Tonsignal für die virtuelle Abhörposition 202, die in der in den Figuren 4 und 5 dargestellten Konfiguration innerhalb einer von den Mikrofonen 250 bis 254 aufgespannten dreieckigen Fläche angeordnet ist, erzeugt werden können.
Allgemein gesprochen kann die Interpolation der Lautstärke bzw. das Erzeugen des Tonsignals für die virtuelle Abhörposition 202 unter Berücksichtigung der Positionen der nächst- liegenden Mikrofone oder unter Berücksichtigung der Positionen aller Mikrofone erfolgen. Beispielsweise kann es, unter anderem zur Reduzierung der Rechenlast, vorteilhaft sein, lediglich die nächstliegenden Mikrofone zum Erzeugen des Tonsignals an der virtuellen Abhörposition 202 zu verwenden. Diese können beispielsweise mittels einer Delaunay- Triangulation gefunden bzw. durch beliebige andere Algorithmen zur Suche der nächsten Nachbarn (Nearest-Neighbor) bestimmt werden. Einige spezielle Möglichkeiten zur Bestimmung zur Lautstärkeanpassung oder, allgemein gesprochen, zur Kombination der Quellsignale, die den Mikrofonen 250 bis 254 zugeordnet sind, werden nachfolgend, bezugnehmend insbesondere auf Figur 5, beschrieben. Befände sich die virtuelle Abhörposition 202 nicht innerhalb eines der Triangulationsdreiecke, sondern außerhalb, beispielsweise an der in Figur 4 gestrichelt gezeichneten weiteren virtuellen Abhörposition 260, stünden zur Interpolation des Signals bzw. zur Kombination eines Tonsignals aus den Quellsignalen der Mikrofone lediglich zwei Quellsignale der nächsten Nachbarn zur Verfügung. Der Einfachheit halber wird im Folgenden die Möglich- keit der Kombination von zwei Quellsignalen ebenfalls anhand von Figur 5 diskutiert, wobei bei der Interpolation aus zwei Quellsignalen das Quellsignal des Mikrofons 250 zunächst vernachlässigt wird. Gemäß einigen Ausführungsbeispielen der Erfindung wird das Tonsignal für die virtuelle Abhörposition 202 gemäß einer ersten Überblendregel, dem sogenannten linearen Panning- Gesetz erzeugt. Gemäß diesem Verfahren wird das Tonsignal xvirti unter Verwendung der folgenden Rechenvorschrift bestimmt:
Xvirti = gi*xi + (1-gi) * x2, wobei g2 = (1- gi).
Das heißt, die Gewichte der einzelnen zu addierenden Quellsignale xi und x2 addieren sich linear zu 1 und das Tonsignal xvirti wird entweder von einem der beiden Signale xi oder x2 allein oder einer Linearkombination der beiden gebildet. Aufgrund dieses linearen Zusam- menhangs weisen die so erzeugten Tonsignale für beliebige Werte von gi bei identischen Quellsignalen eine konstante Lautstärke auf, wohingegen vollständig unterschiedliche (dekorrelierte) Quellsignale xi und x2 zu einem Tonsignal führen, das für den Wert gi=0,5 einen Lautstärkeabfall von minus 3dB, also um den Faktor 0,5 aufweist. Eine zweite Überblendregel gemäß der das Tonsignal xvirt2 erzeugt werden kann, ist das sogenannte Sinus- und Cosinus-Gesetz:
xvirt2 = cos(5)*xi + sin(5)*x2, wobei δ £ [0°; 90°] .
Der Parameter δ, der die individuellen Gewichte gi und g2 bestimmt, reicht von 0° bis 90° und errechnet sich aus dem Abstand zwischen der virtuellen Abhörposition 202 und den Mikrofonen 252 und 254. Da sich hier die Quadrate der Gewichte für beliebige Werte von δ zu 1 summieren, kann mittels des Sinus-Cosinus-Gesetzes für jeden beliebigen Parameter δ ein Tonsignal mit konstanter Lautstärke erzeugt werden, wenn die Quellsignale dekorreliert sind. Jedoch ergibt sich bei identischen Quellsignalen für den Parameter δ = 45° eine Laut- Stärkeerhöhung von 3dB.
Eine dritte Überblendregel, die zu den der zweiten Überblendregel ähnlichen Ergebnissen führt, und gemäß der das Tonsignal xVirt3 erzeugt werden kann, ist das sogenannte Tangens- Gesetz:
Xvirts = gi*xi + g2*x2, wobei -^- = ^ und θ £ [0°; 90°] .
tan ö0 gi+g2
Eine vierte Überblendregel, die verwendet werden kann, um das Tonsignal xVirt4 zu erzeugen, ist das sogenannte Sinus- Gesetz:
Xvirt4 = gi*xi + g2*x2, wobei !2 = ^2 und Q e [0°; 90°] .
sin 0O g +g2 Auch hierbei addieren sich die Quadrate der Gewichte für jedweden möglichen Wert des Parameters Θ zu 1. Der Parameter Θ ist wiederum durch die Abstände zwischen virtueller Abhörposition 202 und den Mikrofonen bestimmt, er kann Werte von minus 45 Grad bis 45 Grad annehmen.
Insbesondere für die Kombination von zwei Quellsignalen, über die nur ein eingeschränktes a-priori-Wissen besteht, wie dies beispielsweise bei einem räumlich leicht variierenden Dif- fus-Schallfeld der Fall sein kann, kann eine vierte Kombinationsregel verwendet werden, gemäß der die erste vorhergehend beschriebene Überblendregel und die zweite vorherge- hend beschriebene Überblendregel abhängig von den zu kombinierenden Quellsignalen kombiniert werden. Insbesondere wird gemäß der vierten Kombinationsregel eine Linear- Kombination von zwei Zwischensignalen xvirti und xvirt2 besteht, die für die Quellsignale xi und x2 jeweils zunächst separat gemäß der ersten und der zweiten Überblendregel erzeugt wurden. Insbesondere wird gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung als Gewichtsfaktor für die Linearkombination der Korrelationskoeffizient σΧιΧ2 zwischen den Quellsignalen xi und x2 verwendet, der sich wie folgt definiert und ein Maß für die Ähnlichkeit der beiden Signale darstellt:
_ Eftxj-EfrilHxz-Efe})} E{Xl*x2}
1 Wobei E den Erwartungswert bzw. den linearen Mittelwert bezeichnet und σ die Standardabweichung der betreffenden Größe bzw. des betreffenden Quellsignals angibt, wobei für akustische Signale in guter Näherung gilt, dass der lineare Mittelwert E{x} Null ist. xvirt = axlx2 * xvirtl + (1— σχ1χ2) * xvirt2- Das heißt, gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung umfasst die Kombinationsregel ferner das Bilden einer gewichteten Summe xvirt aus dem mit einem Korrelationskoeffizienten σΧιΧ2 für eine Korrelation zwischen dem ersten Quellsignal xi und dem zweiten Quellsignal x2 gewichteten Zwischensignalen xvirtl und x^^. Durch Verwendung der vierten Kombinationsregel kann somit gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung über den gesamten Parameterbereich eine Kombination mit näherungsweise konstanter Lautstärke erreicht werden. Dies kann ferner überwie- gend unabhängig davon erreicht werden, ob die zu kombinierenden Signale unähnlich oder ähnlich sind.
Insofern gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung ein Tonsignal an einer virtuellen Abhörposition 202 gewonnen werden soll, die sich innerhalb eines von drei Mikrofonen 250 bis 254 begrenzten Dreiecks befindet, können gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung die drei Quellsignale der Mikrofone 250 bis 254 linear kombiniert werden, wobei die einzelnen Signalanteile der den Mikrofonen 250 bis 254 zugeordneten Quellsignale basierend auf einer senkrechten Projektion der virtuellen Abhörposition 202 auf diejenige Höhe des Dreiecks erfolgt, die der Position des dem jeweiligen Quellsignal zugeordneten Mikrofons zugeordnet ist.
Soll beispielsweise der Signalanteil des Mikrofons 250 bzw. das diesem Quellsignal zugeordnete Gewicht bestimmt werden, wird zunächst eine senkrechte Projektion der virtuellen Abhörposition 202 auf die Höhe 262 vorgenommen, welche dem Mikrofon 250 zugeordnet ist bzw. der Ecke des Dreiecks, an der sich das Mikrofon 250 befindet. Daraus ergibt sich die in Figur 5 gestrichelt dargestellte projizierte Position 264 auf der Höhe 262. Diese wiederum unterteilt die Höhe 262 in einen dem Mikrofon 250 zugewandten ersten Höhenabschnitt 266 und einen diesem abgewandten Höhenabschnitt 268. Das Verhältnis dieser Hö- henabschnitte 266 und 268 wird benutzt, um gemäß einem der obengenannten Überblendregeln ein Gewicht für das Quellsignal des Mikrofons 250 zu berechnen, wobei davon ausgegangen wird, dass sich an dem dem Mikrofon 250 gegenüberliegenden Ende der Höhe 262 eine Schallquelle bzw. ein Mikrofon befindet, das konstant ein Signal mit der Amplitude null aufzeichnet.
D. h., gemäß den Ausführungsbeispielen der Erfindung wird die Höhe jeder Dreiecksseite ermittelt und der Abstand des virtuellen Mikrofons zu jeder Dreieckseite bestimmt. Entlang der entsprechenden Höhe wird das Mikrofonsignal linear bzw. je nach gewählter Überblendregel von dem Eckpunkt des Dreiecks zur gegenüberliegenden Dreiecks seite auf null geblendet. Für das in Figur 5 gezeigte Ausführungsbeispiel bedeutet dies, das Quellsignal des Mikrofons 250 wird mit dem Gewicht 1 verwendet, wenn sich die Projektion 264 an der Position des Mikrofons 250 befindet und mit null, wenn sich diese auf der Verbindungsgeraden zwischen der Position der Mikrofone 252 und 254, also auf der gegenüberliegenden Seite des Dreiecks befindet. Zwischen diesen beiden Extrempositionen wird das Quellsignal des Mikrofons 250 ein- bzw. ausgeblendet. In allgemeinen Worten bedeutet dies, dass beim Kombinieren des Signals aus drei Signalen drei Quellsignale xi bis x3 berücksichtigt werden, deren zugeordnete Mikrofone 250 bis 254 eine dreieckige Fläche aufspannen, innerhalb derer sich die virtuelle Abhörposition 202 befindet. Dabei werden die Gewichte gi bis g3 für die Linearkombination der Quellsignale xi bis x3 basierend auf einer senkrechten Projektion der virtuellen Abhörposition 202 auf diejenige Höhe des Dreiecks bestimmt, die der Position des dem jeweiligen Quellsignals zugeordneten Mikrofons zugeordnet ist bzw. durch den diese Höhe verläuft. Insofern zur Bestimmung des Signals die oben diskutierte vierte Überblendregel verwendet wird, kann ein gemeinsamer Korrelationskoeffizient für die drei Quellsignale xi bis x3 dadurch bestimmt werden, dass zunächst eine Korrelation zwischen den jeweils benachbarten Quellsignalen ermittelt wird, woraus sich insgesamt drei Korrelationskoeffizienten ergeben. Aus den drei so erhaltenen Korrelationskoeffizienten wird ein gemeinsamer Korrelati- onskoeffizient durch Mittel wertbildung gebildet, welcher wiederum die Gewichtung für die Summe von Teilsignalen bestimmt, die mittels der ersten Überblendregel (lineares Panning) und der zweiten Überblendregel (Sinus-Cosinus-Gesetz) gebildet werden. Das heißt, es wird zunächst ein erstes Teilsignal mit dem Sinus-Cosinus-Gesetz bestimmt, daraufhin wird ein zweites Teilsignal mit dem linearen Panning bestimmt und die beiden Teilsignale werden durch Gewichtung mit dem Korrelationskoeffizienten linear kombiniert.
Figur 6 zeigt eine Illustration einer weiteren möglichen Konfiguration von Positionen von Mikrofonen 270 bis 278, innerhalb derer eine virtuelle Abhörposition 202 angeordnet ist. Insbesondere anhand von Figur 6 wird eine weitere mögliche Kombinationsregel illustriert, deren Eigenschaften mit den voranstehend beschriebenen Kombinationsmöglichkeiten beliebig kombiniert werden kann oder die auch für sich allein genommen ein Kombinationsregel im hierin beschriebenen Sinn sein kann.
Gemäß einigen Ausführungsbeispielen der Erfindung wird, wie in Figur 6 schematisch dar- gestellt, ein Quellsignal lediglich dann bei der Kombination zum Tonsignal für eine virtuelle Abhörposition 202 berücksichtigt, wenn das dem Quellsignal zugeordnete Mikrofon sich innerhalb eines vorbestimmten konfigurierbaren Abstandes R von der virtuellen Abhörposition 202 befindet. Dadurch kann gemäß einigen Ausführungsbeispielen Rechenzeit möglicherweise gespart werden, indem beispielsweise nur diejenigen Mikrofone berücksichtigt werden, deren Signalbeiträge gemäß den gewählten Kombinationsregeln oberhalb der menschlichen Hörschwelle liegen.
Gemäß einigen Ausführungsbeispielen der Erfindung kann, wie in Figur 7 schematisch dar- gestellt, die Kombinationsregel ferner eine Richtcharakteristik für die virtuelle Abhörposition 202 berücksichtigen. Das heißt beispielsweise, das erste Gewicht gi für das erste Quellsignal xi des ersten Mikrofons 220 kann zusätzlich proportional zu einem Richtungsfaktor rfi sein, der sich aus einer Empfindlichkeitsfunktion bzw. einer Richtcharakteristik für die virtuelle Abhörposition 202 ergibt sowie aus der Relativposition zwischen virtueller Abhör- position 202 und Mikrofon 220. D. h. gemäß diesen Ausführungsbeispielen umfasst die erste Geometrieinformation ferner eine erste Richtungsinformation über eine Richtung zwischen dem Mikrofon 220 und einer der virtuellen Abhörposition 202 zugeordneten Vorzugsrichtung 280, in der die Richtcharakteristik 282 ihre maximale Empfindlichkeit aufweist. Allgemein gesprochen sind damit die Gewichtungsfaktoren gi und g2 der Linearkombination der Quellsignale xi und x2 gemäß einigen Ausführungsbeispielen zusätzlich von einem ersten Richtungsfaktor rfi und einen zweiten Richtungsfaktor rf2 abhängig, die der Richtcharakteristik 280 an der virtuellen Abhörposition 202 Rechnung tragen. Die in den vorhergehenden Absätzen diskutierten Kombinationsregeln können in anderen Worten wie folgt zusammengefasst werden. Die einzelnen Implementierungen sind in den nächsten Abschnitten genauer beschrieben. Allen Varianten ist gemein, dass bei der Addition der Signale Kammfiltereffekte auftreten könnten. Ist dies potentiell der Fall, können die Signale zuvor entsprechend verzögert werden. Daher wird zunächst der zur Verzögerung verwendbare Algorithmus dargestellt.
Bei Mikrofonen, welche einen größeren Abstand als zwei Meter zueinander haben, können Signale ohne Entstehung von wahrnehmbaren Kammfiltereffekten aufaddiert werden. Ebenfalls bedenkenlos lassen sich Signale von Mikrofonen summieren, bei deren Positionsab- standen die sogenannte 3: 1-Regel eingehalten wird. Die Regel besagt, dass bei der Aufnahme einer Schallquelle mit zwei Mikrofonen der Abstand zwischen der Schallquelle und dem zweiten Mikrofon mindestens das Dreifache des Abstandes von der Schallquelle zum ersten Mikrofon betragen soll, um keine wahrnehmbaren Kammfiltereffekte zu erhalten. Voraus- setzung sind Mikrofone gleicher Empfindlichkeit und der Abfall des Schalldruckpegels mit der Entfernung, beispielsweise nach dem 1/r-Gesetz.
Das System bzw. ein Tonsignalerzeuger oder dessen Geometrieprozessor ermittelt zu Beginn, ob beide Bedingungen erfüllt sind. Ist dies nicht der Fall, können die Signale vor der Berechnung des virtuellen Mikrofonsignals entsprechend der momentanen Position des virtuellen Mikrofons verzögert werden. Die Abstände aller Mikrofone zum virtuellen Mikrofon werden dazu gegebenenfalls bestimmt und die Signale bezüglich des Mikrofons, welches am weitesten vom virtuellen entfernt liegt, zeitlich verschoben. Dazu wird der größte Abstand ermittelt und die Differenz zu den übrigen Abständen gebildet. Die Latenz A tt in samplen ergibt sich nun aus dem Verhältnis der jeweiligen Distanz dj zur Schallgeschwindigkeit c multipliziert mit der Abtastrate Fs. Der berechnete Wert kann in digitalen Implementierungen beispielsweise gerundet werden, wenn das Signal nur um ganze Samples verzögert werden soll. N bezeichne im Folgenden die Anzahl der Aufnahmemikrofone:
Figure imgf000027_0001
Gemäß einigen weiteren Ausführungsbeispielen werden alle Quellsignale mit der maximalen bestimmten Latenz beaufschlagt.
Zu Berechnung des virtuellen Mikrofonsignals können folgende Varianten implementiert werden. Dabei werden Nahmikrofone bzw. Mikrofone zur Aufzeichnung von Direktschall nachfolgend als Mikrofone eines ersten Mikrofontyps und Ambientmikrofone bzw. Mikrofone zur Aufzeichnung eines diffusen Schallanteils als Mikrofone eines zweiten Mikrofontyps bezeichnet. Ferner wird die virtuelle Abhörposition auch als Position eines virtuellen Mikrofons bezeichnet.
Gemäß einer ersten Variante fallen sowohl die Signale der Nahmikrofone bzw. der Mikrofone eines ersten Mikrofontyps als auch die Signale der Ambientmikrofone nach dem Abstandsgesetz ab. Hierdurch kann jedes Mikrofon an seiner Position besonders dominant gehört werden. Für die Berechnung des virtuellen Mikrofonsignals können zunächst die Nahfeldradien um die Nah- und Ambientmikrofone durch den Nutzer festgelegt werden. Innerhalb dieses Radius bleibt die Lautstärke der Signale konstant. Platziert man nun das virtuelle Mikrofon in der Aufnahmeszene werden die Abstände vom virtuellen Mikrofon zu jedem einzelnen realen Mikrofon berechnet. Hierfür werden die Samplewerte der Mikrofonsignale Xi[t] durch die momentane Entfernung dj geteilt und mit dem Nahfeldradius rnah multipliziert. N gibt die Anzahl der Aufnahmemikrofone an:
-[t]
xi,gedämpft (.t) = * rnah m^ i = 1,■■■ , N.
Auf diese Weise erhält man das aufgrund der räumlichen Entfernung di gedämpfte
Mikrofonsignal Xi>gedämpft - Alle so berechneten Signale werden aufaddiert und bilden gemeinsam das Signal für das virtuelle Mikrofon:
%virtMic (t) ~
Figure imgf000028_0001
Gemäß einer zweiten Variante erfolgt eine Trennung des Direkt- und Diffusschalls. Das Diffusschallfeld soll dabei im gesamten Raum annähernd gleich laut sein. Hierfür wird der Raum durch die Anordnung der Ambientmikrofone in bestimmte Bereiche gegliedert. Je nach Bereich berechnet sich der diffuse Schallanteil aus einem, zwei oder drei Mikrofonsignalen. Die Signale der Nahmikrofone fallen mit der Entfernung nach dem Abstandsgesetz ab. Abbildung 4 zeigt beispielhaft eine Raumaufteilung. Die Punkte symbolisieren die Ambientmikrofone. Die äußeren Ambientmikrofone bilden ein Polygon. Der Bereich innerhalb dieses Polygons wird in Dreiecke aufgeteilt. Hierfür wird die Delaunay- Triangulation angewendet. Mit diesem Verfahren kann aus einer Punktmenge ein Dreiecksnetz gebildet werden. Es zeichnet sich vor allem dadurch aus, dass der Umkreis eines Dreiecks keine wei- teren Punkte der Menge einschließt. Durch Erfüllen dieser sogenannten Umkreisbedingung entstehen Dreiecke mit möglichst großen Innenwinkeln. In Abbildung 4 ist diese Triangulation anhand von vier Punkten dargestellt.
Durch die Delaunay- Triangulation werden nah beieinander liegende Mikrofone gruppiert und jedes Mikrofon auf den umliegenden Raum abgebildet. Das Signal für das virtuelle Mikrofon berechnet sich innerhalb des Polygons aus jeweils drei Mikrofonsignalen. Außerhalb des Polygons werden zu jeder Verbindungslinie zweier Eckpunkte zwei senkrechte Geraden bestimmt, welche durch die Eckpunkte verlaufen. Hierdurch werden auch außerhalb des Polygons bestimmte Bereiche begrenzt. Das virtuelle Mikrofon kann sich somit entweder zwischen zwei Mikrofonen befinden oder bei einem Mikrofon an einem Eckpunkt. Zur Berechnung des diffusen Schallanteils sollte zunächst ermittelt werden, ob sich das virtuelle Mikrofon innerhalb oder außerhalb des den Rand bildenden Polygons befindet. Je nach Position berechnet sich der diffuse Anteil des virtuellen Mikrofonsignals aus einem, zwei oder drei Mikrofonsignalen.
Befindet sich das virtuelle Mikrofon außerhalb des Polygons wird zwischen den Bereichen an einem Eckpunkt und zwischen zwei Mikrofonen unterschieden. Befindet sich das virtuelle Mikrofon in dem Bereich bei einem Mikrofon an einem Eckpunkt des Polygons, wird nur das Signal x; dieses Mikrofons für die Berechnung des Diffusschallanteils verwendet:
xdiffus [^] = x i M -
Im Bereich zwischen zwei Mikrofonen setzt sich das virtuelle Mikrofonsignal aus den beiden entsprechenden Mikrofonsignalen xi und x2 zusammen. Je nach Position wird zwischen den beiden Signalen mit Hilfe verschiedener Überblendregeln bzw. Panning-Verfahren überblendet. Diese werden nachfolgend auch wie folgt bezeichnet: lineares Panning-Gesetz (erste Überblendregel), Sinus-Cosinus-Gesetz (zweite Überblendregel), Tangens-Gesetz (dritte Überblendregel) und Kombination aus linearem Panning-Gesetz und Sinus-Cosinus- Gesetz (vierte Überblendregel).
Für die Kombination aus den beiden Panning-Verfahren linear (xVirti ) und Sinus-Cosinus- Gesetz (xVirt2) wird der Korrelationskoeffizient σχ x der beiden Signale xi und x2 bestimmt:
-E{Xl})*(x2-E{x2})} E{Xl
°~XlX2 Je nach Größe des Koeffizienten σΧιΧ2 fließt das jeweilige Gesetz in die Berechnung der gewichteten Summe xVirt ein:
xvirt = °xlx2 * xvirtl + (1— σχ1χ2) * xvirt2> Wobei
Xvirti = gi*xi + (1-gi) * 2, wobei g2 = (1- gi); „lineares panning"
xVirt2 = cos(5)*xi + sin(5)*x2, wobei δ £ [0°; 90°] ;„Sinus-Cosinus-Gesetz".
Beträgt der Korrelationskoeffizient σΧιΧ2 gleich 1 handelt es sich um identische Signale und es wird nur linear überblendet. Bei einem Korrelationskoeffizienten von 0 kommt nur das Sinus-Cosinus-Gesetz zum Einsatz.
Der Korrelationskoeffizient kann in einigen Implementierungen nicht nur einen Augenblickswert beschreiben, sondern über einen gewissen Zeitraum integriert werden. Beim Kor- relationsgradmesser kann dieser Zeitraum beispielsweise 0,5 s betragen. Da es sich bei den Ausführungsbeispielen der Erfindung bzw. den virtuellen Mikrofonen nicht immer um echt- zeitfähige Systeme handeln muss, kann der Korrelationskoeffizient auch über eine größere Zeitdauer, beispielsweise 30s bestimmt werden
Im Bereich innerhalb des Polygons bzw. befindet sich die virtuelle Abhörposition innerhalb von Dreiecken, deren Eckpunkte mittels Delaunay- Triangulation festgelegt wurden, wie Anhand von Figur 5 verdeutlicht wurde. In jedem Dreieck setzt sich der Diffusschallanteil des virtuellen Mikrofonsignals aus den drei Quellsignalen der an den Ecken liegenden Mik- rofone zusammen. Es wird dazu die Höhe h jeder Dreiecksseite ermittelt und der Abstand dvirtMic des virtuellen Mikrofons zu jeder Dreiecksseite bestimmt. Entlang der entsprechenden Höhe wird das Mikrofonsignal je nach eingestelltem Panning-Verfahren bzw. je nach verwendeter Überblendregel von einem Eckpunkt zur gegenüberliegenden Dreiecks seite auf null geblendet.
Dazu können prinzipiell die oben beschriebenen Panning- Verfahren verwendet werden, welche auch für die Berechnung des Signals außerhalb des Polygons verwendet werden. Die Division des Abstands dvirtMic durch den Wert der Höhe h normiert die Strecke auf eine Länge von 1 und liefert die zugehörige Position auf der Panning- Kurve. Hiermit lässt sich nun auf der y- Achse der Wert ablesen, mit dem jedes der drei Signale entsprechend des eingestellten Panning- Verfahrens multipliziert wird.
Für die Kombination aus linearem Panning-Gesetz und dem Sinus-Cosinus-Gesetz wird zunächst aus jeweils zwei Quellsignalen der Korrelationskoeffizient bestimmt. Hierdurch erhält man drei Korrelationskoeffizienten, aus denen anschließend der Mittelwert gebildet wird.
Dieser Mittelwert bestimmt die Gewichtung der Summe von linearem und Sinus-Cosinus- Panning-Gesetz. Auch hier gilt: Ist der Wert gleich 1, wird nur mittels linearem Panning- Gesetz überblendet. Für einen Wert gleich 0 wird nur das Sinus-Cosinus-Gesetz verwendet. Abschließend ergeben alle drei Signale addiert den diffusen Anteil des Schalls.
Der Anteil des direkten Schalls ist dem diffusen überlagert, wobei der direkte Schallanteil von Mikrofonen des Typs„D" und der indirekte Schallanteil von Mikrofonen des Typs„A" im vorhergehend eingeführten Sinne aufgenommen wird. Schließlich werden der diffuse und der direkte Schallanteil addiert und ergeben so das Signal für das virtuelle Mikrofon:
% virtMic [t ~ ^-diffus [^] % direkt [t - Es ist ferner möglich, diese Variante zu erweitern. Nach Wunsch kann ein beliebig großer Radius um ein Mikrofon eingestellt werden. Innerhalb dieses Bereichs ist nur das dort befindliche Mikrofon zu hören. Alle anderen Mikrofone werden auf null gesetzt bzw. mit einem Gewicht von 0 versehen, sodass das Signal des virtuellen Mikrofons dem Signal des ausgewählten Mikrofons entspricht:
X virtMic t\ ~ %i,sel [^] ·
Gemäß der dritten Variante fließen nur die Mikrofone, die sich in einem bestimmten Umkreis um das virtuelle Mikrofon befinden, in die Berechnung des virtuellen Mikrofonsignals ein. Hierfür werden zunächst die Abstände aller Mikrofone zum virtuellen Mikrofon ermit- telt und daraus bestimmt, welche Mikrofone innerhalb des Kreises liegen. Die Signale der Mikrofone, welche sich außerhalb des Kreises befinden, werden auf null gesetzt bzw. erhalten das Gewicht 0.
Die Signalwerte der Mikrofone xt (t) innerhalb des Kreises werden zu gleichen Teilen auf- addiert und ergeben so das Signal für das virtuelle Mikrofon. Gibt N die Anzahl der Aufnahmemikrofone innerhalb des Kreises an gilt:
%virtMic (.t) ~
Figure imgf000031_0001
( ·
Um plötzlich auftretende Lautstärkesprünge beim Übergang eines Mikrofons in oder aus dem Kreis heraus zu vermeiden, können die Signale am Rand des Kreises zusätzlich linear ein- bzw. ausgeblendet werden. Bei dieser Variante muss keine Unterscheidung in Nah- und Ambientmikrofone stattfinden.
Bei allen Varianten kann es auch sinnvoll sein, dem virtuellen Mikrofon eine zusätzliche Richtcharakteristik zuzuweisen. Dazu kann das virtuelle Mikrofon mit einem Richtungsvek- tor r versehen werden, der zu Beginn in die Hauptrichtung der Richtcharakteristik (im Polardiagramm) zeigt. Da die Richtcharakteristik eines Mikrofons für einige Ausführungsbeispiele nur für Direktschall wirksam sein kann, wirkt sich dann die Richtcharakteristik nur auf die Signale der Nahmikrofone aus. Die Signale der Ambientmikrofone fließen unverändert in die Berechnung gemäß der Kombinationsregel ein. Vom virtuellen Mikrofon aus werden zu allen Nahmikrofonen Vektoren gebildet. Für jedes der Nahmikrofone wird der Winkel (Pi>nah zwischen diesem Vektor und dem Richtung svektor des virtuellen Mikrofons errechnet. In Figur 7 ist dies beispielhaft für ein Mikrofon 220 dargestellt. Durch Einsetzen des Winkels in die allgemeine Mikrofongleichung s(< ) = a + b * cos(<p)erhält man einen Faktor s für jedes Quellsignal, welcher einer zusätzlichen Schalldämpfung aufgrund der Richtcharakteristik entspricht. Vor der Addition aller Quellsignale wird jedes Signal mit dem entsprechenden Faktor multipliziert. Es besteht so beispielsweise die Möglichkeit, zwischen den Richtcharakteristiken Kugel (a=l ; b=0), Breite Niere (a=0,71 ; b=29), Niere (a=0,5; b=0,5), Superniere (a=0,37; b=0,63), Hyperniere (a=0,25; b=0,75) und Acht (a=0; b=l) zu wählen. Das virtuelle Mikrofon kann beispielsweise mit einer Genauigkeit von 1° oder darunter gedreht werden.
Figur 8 zeigt schematisch ein Mischpult 300, das einen Tonsignalerzeuger 100 umfasst, und mittels dessen Signale von Mikrofonen 290 bis 295 empfangen werden können, die dazu verwendet werden, eine akustisches Szene 208 aufzuzeichnen. Das Mischpult dient zum Verarbeiten der Quellsignale von zumindest zwei Mikrofonen 290 bis 295 und zum Bereitstellen eines abgemischten Tonsignals 302, das in der in Figur 8 gewählten Darstellung lediglich schematisch angedeutet ist. Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung weist das Mischpult ferner eine Benutzerschnittstelle 306 auf, die ausgebildet ist, um eine grafische Repräsentation der Positionen der Mehrzahl von Mikrofonen 290 bis 295 anzuzeigen, sowie zusätzlich die Position einer virtuellen Abhörposition 202, die innerhalb des akustischen Raumes, in dem sich die Mikrofone 290 bis 295 befinden, angeordnet ist.
Gemäß einiger Ausführungsbeispiele erlaubt es die Benutzerschnittstelle ferner, jedem der Mikrofone 290 bis 295 einen Mikrofontyp zuzuordnen, beispielsweise einen ersten Typ (1), der Mikrofone zur Direktschallaufzeichnung kennzeichnet und einen zweiten Typ (2), der Mikrofone zur Aufzeichnung von diffusen Schallanteilen bezeichnet.
Gemäß einigen weiteren Ausführungsbeispielen ist die Benutzerschnittstelle ferner ausgebildet, es einem Benutzer des Mischpultes auf einfache Art und Weise, beispielsweise durch Bewegung eines in Figur 8 schematisch dargestellten Cursors 310 bzw. einer Computermaus zu ermöglichen, die virtuelle Abhörposition 202 intuitiv und einfach zu bewegen, um so auf einfache Art und Weise eine Kontrolle der gesamten akustischen Szene bzw. des Aufnahmeequipments zu ermöglichen.
Figur 9 zeigt schematisch ein Ausführungsbeispiel eines Verfahrens zum Bereitstellen eines Tonsignals, das in einem Signalaufnahmeschritt 500 ein Empfangen eines von dem ersten Mikrofon aufgenommenen ersten Quellsignals xi und eines von dem zweiten Mikrofon aufgenommenen zweiten Quellsignals x2 umfasst.
Während eines Analyseschritts 502 wird eine erste Geometrieinformation basierend auf der ersten Position und der virtuellen Abhörposition und einer zweite Geometrieinformation basierend auf der zweiten Position und der virtuellen Abhörposition bestimmt. In einem Kombinationsschritt 505 wird zumindest des ersten Quellsignal xi und des zweiten Quellsignal x2 gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel.
Figur 10 zeigt erneut schematisch eine Benutzerschnittstelle 306 für ein Ausführungsbeispiel der Erfindung, die sich von der in Figur 8 gezeigten leicht unterscheidet. In dieser bzw. in einem sogenannten„Interaction-Canvas" können die Positionen der Mikrofone angegeben werden, insbesondere auch als Schallquellen bzw. Mikrofone verschiedenen Typs bzw. Mikrofontyps (1,2,3,4). Dazu kann die Position zumindest eines Empfängers bzw. eine virtuelle Abhörposition 202 angegeben werden (Kreis mit Kreuz). Jede Schallquelle kann einem der Mischpultkanäle 310 bis 316 zugeordnet sein.
Wenngleich an Hand der vorhergehenden Ausführungsbeispiele überwiegend die Erzeu- gung eines einzelnen Tonsignals an einer virtuellen Abhörposition 202 diskutiert wurde, versteht es sich von selbst, dass gemäß weiteren Ausführungsbeispielen der vorliegenden Erfindung auch mehrere, beispielsweise 2, 3, 4 bis zu einer beliebigen Anzahl von Tonsignalen für weitere virtuelle Abhörpositionen erzeugt werden können, wobei jeweils die oben beschriebenen Kombinationsregeln verwendet werden.
Dabei können bei weiteren Ausführungsbeispielen beispielsweise durch Verwenden mehrerer räumlich benachbarter virtueller Abhörpositionen auch unterschiedliche Abhörmodelle, beispielsweise des menschlichen Gehörs, erzeugt werden. Durch das Definieren von zwei virtuellen Abhörpositionen, die in etwa den Abstand des menschlichen Gehörs bzw. der Ohrmuschel aufweisen, kann beispielsweise in Verbindung mit einer frequenzabhängigen Richtcharakteristik für jede der virtuellen Abhörpositionen ein Signal erzeugt werden, das bei direktem Abhören mittels eines Kopfhörers oder dergleichen den Höreindruck simuliert, den ein menschlicher Zuhörer am Ort zwischen den beiden virtuellen Abhörpositionen hät- te. Das heißt, am Ort des linken Gehörgangs bzw. der linken Hörmuschel würde die erste virtuelle Abhörposition erzeugt werden, die zudem eine frequenzabhängige Richtcharakteristik aufweist, so dass die Signalpropagation entlang des Gehörganges im Sinne einer Head-Related-Transfer-Function (HRTF) über die frequenzabhängige Richtcharakteristik simuliert werden könnte. Ginge man für die zweite virtuelle Abhörposition bezüglich des rechten Ohres genauso vor, erhielte man gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung zwei Monosignale, die bei direktem Abhören beispielsweise mittels eines Kopfhörers dem Klangeindruck entsprächen, die ein realer Zuhörer am Ort der virtuellen Abhörposition hätte. Auf ähnliche Art und Weise kann beispielsweise auch ein herkömmliches Stereomikrofon simuliert werden.
Zusammengefasst kann gemäß einiger Ausführungsbeispiele der Erfindung die Position einer Schallquelle (z.B. eines Mikrofons) im Mischpult / der Aufnahmesoftware angegeben bzw. automatisch erfasst werden. Basierend auf der Position der Schallquelle stehen dem Tonmeister zumindest drei neue Werkzeuge zur Verfügung:
- Monitoring der räumlichen Klangszene, die gerade aufgezeichnet wird.
- Erstellung von teilautomatisierten Tonmischungen durch Steuerung von virtuellen Empfängern.
- Eine visuelle Darstellung der räumlichen Anordnung.
Figur 10 zeigt schematisch eine potentielle Nutzerschnittstelle mit den Positionen der Schallquellen und einem oder mehreren„virtuellen Empfängern". Über die Benutzerschnittstelle bzw. über ein Interaction Canvas kann jedem Mikrofon (nummeriert mit 1 bis 4) eine Position zugewiesen werden. Jedes Mikrofon ist mit einem Kanalzug des Mischpults/ der Aufnahmesoftware verbunden. Durch die Positionierung eines oder mehrerer Empfänger (Kreis mit Kreuz) werden Tonsignale aus den Schallquellen berechnet, die zum Monitoring bzw. zum Finden von Signalfehlern oder der Erstellung von Mischungen verwendet werden können. Den Mikrofonen bzw. Schallquellen werden hierfür verschiedene Funktionstypen zugeordnet, z.B. Nahmikrofon (Typ„D") oder Ambientmikrofon (Typ„A") oder auch Teil eines Mikrofonarrays, welches nur zusammen mit den anderen ausgewertet werden soll. Abhängig von der Funktion werden die genutzten Berechnungs Vorschriften angepasst. Des Weiteren erhält der Nutzer die Möglichkeit, die Berechnung des Ausgabesignals zu konfi- gurieren. Außerdem können weitere Parameter eingestellt werden, wie z.B. die Art der Überblendung zwischen benachbarten Mikrofonen. Variable Bestandteile bzw. Vorgehensweisen der Berechnung können sein:
1. Abstandsabhängige Lautstärke
2. Lautstärkeinterpolation zwischen zwei oder mehreren Schallquellen
3. Ein kleiner Bereich um die jeweilige Schallquelle, in der nur diese zu hören ist (der
Ab Stands wert kann konfiguriert werden)
Solche Berechnungsvorschriften der Empfängersignale können verändert werden, beispielsweise indem:
1. Ein Empfängerbereich um die Schallquelle oder den Empfänger angegeben wird, 2. Eine Richtcharakteristik für den Empfänger angegeben wird.
Für jede Schallquelle kann ein Typ (z.B.: Direktschallmikrofon, Ambient- oder Diffusschallmikrofon) gewählt werden. Durch die Wahl des Typs wird die Berechnungsvorschrift des Signals am Empfänger gesteuert. Dies führt in der spezifischen Anwendung zu einer besonders einfachen Bedienung. Das Vorbereiten einer Aufnahme mit sehr vielen Mikrofonen wird so deutlich vereinfacht. Hierbei kann bereits im Einrichtungsprozess vor der eigentlichen Aufnahme jedem Mikrofon eine Position im Mischpult zugewiesen werden. Die Tonmischung muss nicht mehr per Lautstärkeeinstellung für jede Schallquelle am Kanalzug geschehen, sondern kann durch die Angabe einer Position des Empfängers in der Schallquellenszene (z.B.: einfacher Klick per Mouse in die Szene) erfolgen. Basierend auf einem wählbaren Modell zur Berechnung der Lautstärke am Empfängerort wird für jede Neupositionierung des Empfängers ein neues Signal berechnet. Durch„Abfahren" der Einzelmikrofone kann so sehr schnell ein Störsignal identifiziert werden. Gleichfalls kann durch eine Positionierung auch eine räumliche Tonmischung erstellt werden, wenn das Empfängersignal als Ausgangs-Lautsprechersignal weiter verwendet wird. Hierbei muss nun nicht mehr für jeden Einzelkanal eine Lautstärke eingestellt werden, die Einstellung erfolgt durch die Wahl der Position des Empfängers für alle Schallquellen gleichzeitig. Die Algorithmen bieten zusätzlich ein neuartiges kreatives Werkzeug. Das Schema zur abstandsabhängigen Berechnung von Tonsignalen zeigt Figur 3. Hierbei wird in Abhängigkeit des Radius RL ein Lautstärkewert g nach
1 berechnet. Die Variable x kann verschiedene Werte annehmen, in Abhängigkeit vom Typ der Schallquelle z.B. x=l; x=l/2. Befindet sich der Empfänger im Kreis mit dem Radius ri gilt ein festgesetzter (konstanter) Lautstärkewert. Je größer die Entfernung der Schallquelle zum Empfänger ist, desto leiser ist das Tonsignal.
Ein Schema zur Lautstärkeinterpolation zeigt Figur 5. Hierbei erfolgt die Berechnung der am Empfänger eintreffenden Lautstärke anhand der Position des Empfängers zwischen zwei oder mehreren Mikrofonen. Die Auswahl der aktiven Schallquellen kann durch sog.„Nea- rest- Neighbor" Algorithmen bestimmt werden. Die Berechnung eines hörbaren Signals am Empfängerort bzw. an der virtuellen Abhörposition erfolgt durch eine Interpolationsvorschrift zwischen zwei oder mehreren Schallquellensignalen. Die jeweiligen Lautstärken werden dabei dynamisch angepasst, um dem Hörer eine stetig angenehme Lautstärke zu ermöglichen.
Neben der Aktivierung aller Schallquellen gleichzeitig, unter der Verwendung der distanzabhängigen Lautstärkeberechnung können Schallquellen durch einen weiteren Algorithmus aktiviert werden. Hierbei wird ein Bereich um den Empfänger mit dem Radius R definiert. Der Wert von R kann durch den Nutzer variiert werden. Befindet sich die Schallquelle in diesem Bereich, ist diese für den Empfänger hörbar. Dieser Algorithmus, abgebildet in Figur 6, kann auch mit der distanzabhängigen Lautstärkeberechnung kombiniert werden. Um den Empfänger existiert also ein Bereich mit dem Radius R. Befinden sich Schallquellen innerhalb des Radius, so sind diese für den Empfänger hörbar. Sind die Schallquellen außerhalb, fließt deren Signal nicht in die Berechnung des Ausgabesignals ein.
Zur Berechnung der Lautstärke der Schallquellen am Empfänger bzw. an der virtuellen Abhörposition ist es möglich, für den Empfänger eine Richtcharakteristik zu definieren. Diese gibt an, wie stark das Tonsignal einer Schallquelle richtungsabhängig am Empfänger wirksam ist. Die Richtcharakteristik kann ein frequenzabhängiger Filter oder ein reiner Lautstärkewert sein. Figur 7 zeigt dies schematisch. Der virtuelle Empfänger ist mit einem Richtungsvektor versehen, welcher durch den Nutzer rotiert werden kann. Eine Auswahl simpler Geometrien werden dem Nutzer zur Auswahl gestellt, sowie eine Auswahl von Richtcharakteristiken populärer Mikrofontypen und auch einige Beispiele menschlicher Ohren, um einen virtuellen Hörer erstellen zu können. Der Empfänger bzw. das virtuelle Mikrofon an der virtuellen Abhörposition besitzt beispielsweise eine Nierencharakteristik. In Abhängigkeit dieser Richtcharakteristik haben die Signale der Schallquellen einen unterschiedlichen Ein- fluss beim Empfänger. Entsprechend der Einfallsrichtung werden Signale unterschiedlich gedämpft.
Die in der vorstehenden Beschreibung, den nachfolgenden Ansprüchen und den beigefügten Figuren offenbarten Merkmale können sowohl einzeln wie auch in beliebiger Kombination für die Verwirklichung eines Ausführungsbeispiels in ihren verschiedenen Ausgestaltungen von Bedeutung sein und implementiert werden.
Obwohl manche Aspekte im Zusammenhang mit einem Tonsignalerzeuger beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement eines Tonsignalerzeugers auch als ein entsprechender Verfahrens schritt oder als ein Merkmal eines Verfahrens Schrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals eines entsprechenden Tonsignalerzeugers dar.
Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-Ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einer programmierbaren Hardwarekomponente derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird.
Eine programmierbare Hardwarekomponente kann durch einen Prozessor, einen Computerprozessor (CPU = Central Processing Unit), einen Grafikprozessor (GPU = Graphics Processing Unit), einen Computer, ein Computersystem, einen anwendungsspezifischen integrierten Schaltkreis (ASIC = Application-Specific Integrated Circuit), einen integrierten Schaltkreis (IC = Integrated Circuit), ein Ein-Chip-System (SOC = System on Chip), ein programmierbares Logikelement oder ein feldprogrammierbares Gatterarray mit einem Mikroprozessor (FPGA = Field Programmable Gate Array) gebildet sein. Das digitale Speichermedium kann daher maschinen- oder computerlesbar sein. Manche Ausführungsbeispiele umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem oder einer programmierbare Hardwarekomponente derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird. Ein Ausführungsbeispiel ist somit ein Daten- träger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Programm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.
Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Programm, Firmware, Computerprogramm oder Computerprogrammprodukt mit einem Programmcode oder als Daten implementiert sein, wobei der Programmcode oder die Daten dahin gehend wirksam ist bzw. sind, eines der Verfahren durchzuführen, wenn das Programm auf einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft. Der Programmcode oder die Daten kann bzw. können beispielsweise auch auf einem maschinenlesbaren Träger oder Datenträger gespeichert sein. Der Programmcode oder die Daten können unter anderem als Quellcode, Maschinencode oder Bytecode sowie als anderer Zwischencode vorliegen.
Ein weiteres Ausführungsbeispiel ist ferner ein Datenstrom, eine Signalfolge oder eine Sequenz von Signalen, der bzw. die das Programm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom, die Signalfolge oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, um über eine Datenkommunikationsverbindung, beispielsweise über das Internet oder ein anderes Netzwerk, transferiert zu werden. Ausführungsbeispiele sind so auch Daten repräsentierende Signalfolgen, die für eine Übersendung über ein Netzwerk oder eine Datenkommunikationsverbindung geeignet sind, wobei die Daten das Programm darstellen.
Ein Programm gemäß einem Ausführungsbeispiel kann eines der Verfahren während seiner Durchführung beispielsweise dadurch umsetzen, dass dieses Speicherstellen ausliest oder in diese ein Datum oder mehrere Daten hinein schreibt, wodurch gegebenenfalls Schaltvorgänge oder andere Vorgänge in Transistorstrukturen, in Verstärkerstrukturen oder in ande- ren elektrischen, optischen, magnetischen oder nach einem anderen Funktionsprinzip arbeitenden Bauteile hervorgerufen werden. Entsprechend können durch ein Auslesen einer Speicherstelle Daten, Werte, Sensorwerte oder andere Informationen von einem Programm erfasst, bestimmt oder gemessen werden. Ein Programm kann daher durch ein Auslesen von einer oder mehreren Speicherstellen Größen, Werte, Messgrößen und andere Informationen erfassen, bestimmen oder messen, sowie durch ein Schreiben in eine oder mehrere Speicherstellen eine Aktion bewirken, veranlassen oder durchführen sowie andere Geräte, Maschinen und Komponenten ansteuern.
Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.

Claims

Patentansprüche 1. Mischpult (300) zum Verarbeiten zumindest eines ersten und eines zweiten Quellsignals und zum Bereitstellen eines abgemischten Tonsignals, wobei das Mischpult einen Tonsignalerzeuger (100) zum Bereitstellen eines Tonsignales (120) für eine virtuelle Abhörposition (202) innerhalb eines Raumes (200), in dem eine akustische Szene von zumindest einem ersten Mikrofon (204) an einer ersten bekannten Position innerhalb des Raumes (200) als das erstes Quellsignal (210) und von zumindest einem zweiten Mikrofon (206) an einer zweiten bekannten Position innerhalb des Raumes (200) als das zweite Quellsignal (212) aufgezeichnet wird, wobei der Tonsignalerzeuger (100) umfasst: eine Eingangsschnittstelle (102), die ausgebildet ist, um das von dem ersten Mikrofon (204) aufgenommene erste Quellsignal (210) und das von dem zweiten Mikrofon (206) aufge- nommene zweite Quellsignal (212) zu empfangen; einem Geometrieprozessor (104), der ausgebildet ist, um basierend auf der ersten Position und der virtuellen Abhörposition (202) eine erste Geometrieinformation (110) und um basierend auf der zweiten Position und der virtuellen Abhörposition (202) eine zweite Geometrieinformation (112) zu bestimmen; und einem Signalerzeuger (106) zum Bereitstellen des Tonsignales (120), wobei der Signalerzeuger (106) ausgebildet ist, zumindest das erste Quellsignal (210) und das zweite Quellsignal (212) gemäß einer die erste Geometrieinformation (110) und die zweite Geometrieinformation (112) verwendenden Kombinationsregel zu kombinieren.
2. Mischpult (300) nach Anspruch 1, wobei das Mischpult ferner eine Benutzerschnitt- stelle (306) umfasst, die ausgebildet ist, um eine grafische Repräsentation der Positionen einer Mehrzahl von zumindest das erste und das zweite Mikrofon umfassenden Mikrofonen sowie der virtuellen Abhörposition anzuzeigen.
3. Mischpult (300) nach einem der Anspruch 1 oder 2, bei dem die Benutzerschnittstelle (306) ferner eine Eingabeeinrichtung umfasst, die ausgebildet ist, um jedem der Mikrofo- ne einen Mikrofontyp aus einer Gruppe mit zumindest einem ersten Mikrofontyp und einem zweiten Mikrofontyp zuzuordnen, wobei ein Mikrofontyp zu einer Art des mit dem Mikrofon aufgezeichneten Schallfeldes korrespondiert.
4. Mischpult (300) nach einem der Ansprüche 1 bis 3, bei dem die Benutzerschnittstelle (306) ferner eine Eingabeeinrichtung umfasst, die ausgebildet ist, um zumindest die virtuelle Abhörposition (202) einzugeben oder zu verändern, insbesondere durch Beeinflussung der grafischen Repräsentation der virtuellen Abhörposition.
5. Mischpult (300) nach einem der vorhergehenden Ansprüche, wobei die erste Geometrieinformation (110) einen ersten Abstand zwischen der ersten Position und der virtuellen Abhörposition und die zweite Geometrieinformation (112) einen zweiten Abstand zwischen der zweiten Position und der virtuellen Abhörposition (202) umfasst.
6. Mischpult (300) nach Anspruch 5, wobei die Kombinationsregel das Bilden einer gewichteten Summe des ersten Quellsignals (210) und des zweiten Quellsignals (212) umfasst, wobei das erste Quellsignal (210) mit einem ersten Gewicht gi und das zweite Quellsignal (212) mit einem zweiten Gewicht g2 gewichtet wird.
7. Mischpult (300) nach Anspruch 6, wobei das erste Gewicht gi für das erste Quellsignal (210) proportional zu dem Inversen einer Potenz des ersten Abstandes di und das zweite Gewicht g2 für das zweite Quellsignal (212) proportional zu dem inversen einer Potenz des zweiten Abstandes d2 ist.
8. Mischpult (300) nach Anspruch 7, wobei das erstes Gewicht gi für das erste Quellsignal (210) proportional zu dem mit einem Nahfeldradius ri des ersten Mikrofons multiplizierten Inversen des ersten Abstandes di und das zweite Gewicht g2 für das zweite Quellsig- nal (212) proportional zu dem mit einem Nahfeldradius r2 des zweiten Mikrofons multiplizierten Inversen des zweiten Abstandes d2 ist.
9. Mischpult (300) nach Anspruch 6, wobei das erste Gewicht gi für das erste Quellsignal (210) Null ist, wenn der erste Abstand di größer ist als ein vorbestimmter Abhörradius R und das zweite Gewicht g2 für das zweite Quellsignal (212) Null ist, wenn der zweite Abstand d2 größer ist als der vorbestimmte Abhörradius R, wobei das erste Gewicht gi und das zweite Gewicht g2 sonst 1 ist.
10. Mischpult (300) nach einem der vorhergehenden Ansprüche, bei dem der Signalerzeuger (106) ausgebildet ist, um eine erste Kombinationsregel zu verwenden, wenn das erste Mikrofon und das zweite Mikrofon einem ersten Mikrofontyp zugeordnet sind und um eine zweite, unterschiedliche Kombinationsregel zu verwenden, wenn das erste Mikrofon (204) und das zweite Mikrofon (206) einem zweiten Mikrofontyp zugeordnet sind.
11. Mischpult (300) nach Anspruch 10, wobei gemäß der ersten Kombinationsregel ein erster Nahfeldradius ri und gemäß der zweiten Kombinationsregel ein zweiter, unterschiedlicher Nahfeldradius r2 verwendet wird.
12. Mischpult (300) nach Anspruch 10, wobei der erste Mikrofontyp einem Mikrofon zugeordnet ist, das zur Aufnahme eines direkten Schallanteils der akustischen Szene dient, wobei der zweite Mikrofontyp einem Mikrofon zugeordnet ist, das der Aufnahme eines diffusen Schallanteils der akustischen Szene dient.
13. Mischpult (300) nach Anspruch 12, wobei die ersten Kombinationsregel das Bilden einer gewichteten Summe des ersten Quellsignals (210) und des zweiten Quellsignals (212) umfasst mit einem ersten Gewicht gi für das erste Quellsignal (210) und einem zweiten Gewicht g2 für das zweite Quellsignal (212), wobei das erste Gewicht gi für das erste Quellsignal (210) proportional zu dem Inversen einer Potenz des ersten Abstandes di und das zweite Gewicht g2 für das zweite Quellsignal (212) proportional zu dem inversen einer Potenz des zweiten Abstandes d2 ist.
14. Mischpult (300) nach Anspruch 13, wobei die zweite Kombinationsregel das Bilden einer gewichteten Summe des ersten Quellsignals xi (210) und des zweiten Quellsignals x2 (212) umfasst, wobei die Gewichte gi und g2 von der ersten Geometrieinformation (110) und von der zweiten Geometrieinformation (112) abhängig sind, wobei die Gewichte gi und g2 für sämtliche möglichen Geometrieinformationen die Randbedingung erfüllen, dass eine
2 2
Summe der Gewichte G = gi+g2 oder eine quadratische Summe G2 = gi + g2 konstant, insbesondere 1 ist.
15. Mischpult (300) nach Anspruch 14, wobei die zweite Kombinationsregel das Bilden einer Gewichteten Summe xvirt der Quellsignale xi (210) und x2 (212) gemäß zumindest einer der folgenden Überblendregeln umfasst: Überblendregel 1: xvirti = gi*xi + (1-gi) * x2, wobei g2 = (1-gi);
Überblendregel 2: xvirt2 = cos(5)*xi + sin(5)*x2, wobei δ £ [0°; 90°];
Überblendregel 3: xvirt3 = gi*xi + g2*x2, wobei = und θ E [0°; 90°];
tan 0o gi+g2
Überblendregel 4: xvirt4 = gi*xi + g2*x2, wobei = und θ E [0°; 90°] .
sin 0o gi+g2
16. Mischpult (300) nach Anspruch 15, wobei die Kombinationsregel ferner das Bilden einer Gewichteten Summe xvirt aus den mit einem Korrelationskoeffizienten σχ1χ2 für eine Korrelation zwischen dem ersten Quellsignal xi (210) und dem zweiten Quellsignal (212) x2 gewichteten Signale xvirti und xVirt23 nach folgender Regel umfasst: Xvirt = axlx2 * xvirtl + (1— σχ1χ2) * xvirt23 > wobei Xvjrt23 entweder xvirt2 oder xvirt3 ist.
17. Mischpult (300) nach Anspruch 14, wobei gemäß der zweiten Kombinationsregel bei dem Bilden der gewichteten Summe ferner ein drittes Signal x3 mit einem dritten Gewicht g3 berücksichtigt wird, wobei die Positionen der den Quellsignalen xi, x2 und x3 zugeordne- ten Mikrofone (250, 252, 254) eine dreieckige Fläche aufspannen, innerhalb derer sich die virtuelle Abhörposition (202) befindet und wobei die Gewichte gi, g2 und g3 für jedes der Quellsignale xl5 x2 und x3 jeweils basierend auf einer senkrechten Projektion (264) der virtuelle Abhörposition (202) auf diejenige Höhe (262) des Dreiecks bestimmt werden, die der Position des dem jeweiligen Quellsignal zugeordneten Mikrofons (250) zugeordnet ist.
18. Mischpult (300) nach einem der vorhergehenden Ansprüche, wobei gemäß der Kombinationsregel entweder das erste oder das zweite Quellsignal (212) um eine Verzögerungszeit verzögert werden, wenn ein Vergleich der ersten Geometrieinformation und der zweiten Geometrieinformation ein vorbestimmtes Kriterium erfüllt.
19. Mischpult (300) nach Anspruch 18, wobei das vorbestimmte Kriterium erfüllt ist, wenn ein Unterschied zwischen dem ersten Abstand und dem zweiten Abstand größer ist als ein zulässiger Minimalabstand.
20. Mischpult (300) nach einem der vorhergehenden Ansprüche, wobei gemäß der Kombinationsregel dasjenige Signal aus der Gruppe des ersten und des zweiten Quellsignals, das eine geringere Signallaufzeit von dem dem Signal zugeordneten Mikrofon bis zu der Virtuellen Abhörposition aufweist, derart verzögert wird, dass die verzögerte Signallaufzeit der Signallaufzeit von dem dem anderen Signal der Gruppe zugeordneten Mikrofon bis zu der Virtuellen Abhörposition entspricht.
21. Mischpult (300) nach einem der Ansprüche 6 bis 20, wobei die erste Geometrieinformation (110) ferner eine erste Richtungsinformation über eine Richtung zwischen einer der virtuellen Abhörposition zugeordneten Vorzugsrichtung (280) und der ersten Position und eine zweite Richtungsinformation über eine Richtung zwischen der Vorzugsrichtung und der zweiten Position umfasst, wobei das erste Gewicht gi proportional zu einem ersten Richtungsfaktor ist und wobei das zweite Gewicht g2 proportional zu einem zweiten Richtungsfaktor ist, wobei der erste Richtungsfaktor von der ersten Richtungsinformation und von einer der virtuellen Abhörposition zugeordneten Richtcharakteristik und der zweite Richtungsfaktor von der zweiten Richtungsinformation und der Richtcharakteristik abhängig ist.
22. Tonsignalerzeuger (100) zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition basierend auf einem ersten Quellsignal und einem zweiten Quellsignal, umfas- send: einen Geometrieprozessor (104), der ausgebildet ist, um basierend auf einer dem ersten Quellsignal zugeordneten ersten Position eine erste Geometrieinformation (110) und um basierend auf einer dem zweiten Quellsignal zugeordneten zweiten Position eine zweite Geometrieinformation (112) zu bestimmen; und einen Signalerzeuger (106) zum Bereitstellen des Tonsignales (120), wobei der Signalerzeuger (106) ausgebildet ist, zumindest das erste Quellsignal (210) und das zweite Quellsignal (212) gemäß einer die erste Geometrieinformation (110) und die zweite Geometrieinformation (112) verwendenden Kombinationsregel zu kombinieren, wobei gemäß der Kombinationsregel ein erstes Teilsignal xvirti gemäß einer ersten Überblendregel und ein zweites Teilsignal xvirt2 gemäß einer zweiten Überblendregel gebildet wird, und wobei das Bereitstellen des Tonsignales ferner das Bilden einer gewichteten Summe xVirt aus den mit einem Korrelationskoeffizienten σχ1χ2 für eine Korrelation zwischen dem ersten Quellsignal xi (210) und dem zweiten Quellsignal x2 (212) gewichteten Signalen xVirti und xVirt2 umfasst.
23. Tonsignalerzeuger (100) zum Bereitstellen eines Tonsignales nach Anspruch 19, wobei das erste Teilsignal xvirti unter Verwendung folgender ersten Überblendregel:
Xvirti = gi*xi + (1-gi) * x2, wobei g2 = (1-gi); und das zweite Teilsignal xvirt2 unter Verwendung folgender Überblendregel:
Xvirt2 = cos(5)*xi + sin(5)*x2, wobei δ £ [0°; 90°] bereitgestellt werden und wobei das Bereitstellen der gewichteten Summe folgende Berechnung umfasst: Xvirt = <7xlx2 * Xyirtl + (1 °xlx2) * xvirt2 -
24. Tonsignalerzeuger (100) zum Bereitstellen eines Tonsignales (120) für eine virtuelle Abhörposition (202) innerhalb eines Raumes (200), in dem eine akustische Szene von zumindest einem ersten Mikrofon (204) an einer ersten bekannten Position innerhalb des Raumes (200) als ein erstes Quellsignal (210) und von zumindest einem zweiten Mikrofon (206) an einer zweiten bekannten Position innerhalb des Raumes (200) als ein zweites Quellsignal (212) aufgezeichnet wird, umfassend: eine Eingangsschnittstelle (102), die ausgebildet ist, um das von dem ersten Mikrofon (204) aufgenommene erste Quellsignal (210) und das von dem zweiten Mikrofon (206) aufgenommene zweite Quellsignal (212) zu empfangen; einem Geometrieprozessor (104), der ausgebildet ist, um basierend auf der ersten bekannten Position und der virtuellen Abhörposition (202) eine einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition (202) umfassende erste Geometrieinformation (110) und um basierend auf der zweiten bekannten Position und der virtuellen Abhörposition (202) eine einen zweiten Abstand zwischen der zweiten bekannten Posi- tion und der virtuellen Abhörposition (202) umfassende zweite Geometrieinformation (112) zu bestimmen; und einem Signalerzeuger (106) zum Bereitstellen des Tonsignales (120), wobei der Signalerzeuger (106) ausgebildet ist, zumindest das erste Quellsignal (210) und das zweite Quellsignal (212) gemäß einer die erste Geometrieinformation (110) und die zweite Geometriein- formation (112) verwendenden Kombinationsregel zu kombinieren.
25. Verfahren zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition (202) innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als ein erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als ein zweites Quellsignal aufgezeichnet wird, umfassend:
Empfangen (500) des von dem ersten Mikrofon aufgenommenen ersten Quellsignals und des von dem zweiten Mikrofon aufgenommenen zweiten Quellsignals;
Bestimmen (502) einer einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition (202) umfassenden ersten Geometrieinformation basierend auf der ersten Position und der virtuellen Abhörposition und einer einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition (202) umfassenden zweiten Geometrieinformation (112) basierend auf der zweiten Position und der virtuellen Abhörposition; und
Kombinieren (504) zumindest des ersten Quellsignals und des zweiten Quellsignals gemäß einer die erste Geometrieinformation (110) und die zweite Geometrieinformation (112) verwendenden Kombinationsregel.
26. Computerprogramm zur Durchführung des Verfahrens nach Anspruch 25, wenn das Computerprogramm auf einer programmierbaren Hardwarekomponente abläuft.
PCT/EP2014/060481 2013-05-24 2014-05-21 Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals WO2014187877A2 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020157036333A KR101820224B1 (ko) 2013-05-24 2014-05-21 믹싱 데스크, 사운드 신호 생성기, 사운드 신호를 제공하기 위한 방법 및 컴퓨터 프로그램
EP14729613.1A EP3005737B1 (de) 2013-05-24 2014-05-21 Mischpult, verfahren und computerprogramm zum bereitstellen eines tonsignals
US14/892,660 US10075800B2 (en) 2013-05-24 2014-05-21 Mixing desk, sound signal generator, method and computer program for providing a sound signal
JP2016514404A JP6316407B2 (ja) 2013-05-24 2014-05-21 ミキシング制御装置、音声信号生成装置、音声信号供給方法およびコンピュータプログラム
CN201480029942.0A CN105264915B (zh) 2013-05-24 2014-05-21 混合控制台、音频信号发生器、用于提供音频信号的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013105375.0A DE102013105375A1 (de) 2013-05-24 2013-05-24 Tonsignalerzeuger, Verfahren und Computerprogramm zum Bereitstellen eines Tonsignals
DE102013105375.0 2013-05-24

Publications (2)

Publication Number Publication Date
WO2014187877A2 true WO2014187877A2 (de) 2014-11-27
WO2014187877A3 WO2014187877A3 (de) 2015-02-19

Family

ID=50933143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2014/060481 WO2014187877A2 (de) 2013-05-24 2014-05-21 Mischpult, tonsignalerzeuger, verfahren und computerprogramm zum bereitstellen eines tonsignals

Country Status (7)

Country Link
US (1) US10075800B2 (de)
EP (1) EP3005737B1 (de)
JP (1) JP6316407B2 (de)
KR (1) KR101820224B1 (de)
CN (1) CN105264915B (de)
DE (1) DE102013105375A1 (de)
WO (1) WO2014187877A2 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017140949A1 (en) * 2016-02-19 2017-08-24 Nokia Technologies Oy Controlling audio rendering
IT201700040732A1 (it) * 2017-04-12 2018-10-12 Inst Rundfunktechnik Gmbh Verfahren und vorrichtung zum mischen von n informationssignalen
TWI731326B (zh) * 2019-03-19 2021-06-21 宏達國際電子股份有限公司 高保真度環繞聲格式之音效處理系統及音效處理方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483042B1 (ko) * 2016-06-17 2022-12-29 디티에스, 인코포레이티드 근거리/원거리 렌더링을 사용한 거리 패닝
EP3264734B1 (de) * 2016-06-30 2022-03-02 Nokia Technologies Oy Steuerung von audiosignalparametern
US10701508B2 (en) * 2016-09-20 2020-06-30 Sony Corporation Information processing apparatus, information processing method, and program
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
EP3343348A1 (de) * 2016-12-30 2018-07-04 Nokia Technologies Oy Vorrichtung und zugehörige verfahren
US10880649B2 (en) 2017-09-29 2020-12-29 Apple Inc. System to move sound into and out of a listener's head using a virtual acoustic system
CA3076703C (en) 2017-10-04 2024-01-02 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to dirac based spatial audio coding
US10609503B2 (en) 2018-04-08 2020-03-31 Dts, Inc. Ambisonic depth extraction
EP3879702A1 (de) * 2020-03-09 2021-09-15 Nokia Technologies Oy Einstellen eines lautstärkepegels
WO2022031280A1 (en) * 2020-08-05 2022-02-10 Hewlett-Packard Development Company, L.P. Peripheral microphones
EP3965434A1 (de) * 2020-09-02 2022-03-09 Continental Engineering Services GmbH Verfahren zur verbesserten beschallung mehrerer beschallungsplätze
CN112951199B (zh) * 2021-01-22 2024-02-06 杭州网易云音乐科技有限公司 音频数据生成方法及装置、数据集构建方法、介质、设备
KR102559015B1 (ko) * 2021-10-26 2023-07-24 주식회사 라온에이엔씨 공연과 영상에 몰입감 향상을 위한 실감음향 처리 시스템
CN113889125B (zh) * 2021-12-02 2022-03-04 腾讯科技(深圳)有限公司 音频生成方法、装置、计算机设备和存储介质
WO2023166109A1 (de) * 2022-03-03 2023-09-07 Kaetel Systems Gmbh Vorrichtung und verfahren zum neuaufzeichnen eines existierenden tonstücks
CN117854520A (zh) * 2022-10-09 2024-04-09 华为技术有限公司 一种混音方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996021321A1 (en) * 1995-01-06 1996-07-11 Anderson David P Virtual reality television system
WO2009077152A1 (en) * 2007-12-17 2009-06-25 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung_E.V. Signal pickup with a variable directivity characteristic
US20140198918A1 (en) * 2012-01-17 2014-07-17 Qi Li Configurable Three-dimensional Sound System

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110064233A1 (en) * 2003-10-09 2011-03-17 James Edwin Van Buskirk Method, apparatus and system for synthesizing an audio performance using Convolution at Multiple Sample Rates
JP4181511B2 (ja) 2004-02-09 2008-11-19 日本放送協会 サラウンド音声ミキシング装置およびサラウンド音声ミキシングプログラム
JP2006074589A (ja) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd 音響処理装置
WO2008008417A2 (en) * 2006-07-12 2008-01-17 The Stone Family Trust Of 1992 Microphone bleed simulator
US20080253547A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Audio control for teleconferencing
JP5403896B2 (ja) * 2007-10-31 2014-01-29 株式会社東芝 音場制御システム
DE102007052154A1 (de) * 2007-10-31 2009-05-07 Robert Bosch Gmbh Audiomodul zur akustischen Überwachung eines Überwachungsbereichs, Überwachungssystem für den Überwachungsbereich, Verfahren zur Erzeugung einer Klangumgebung sowie Computerprogramm
EP2357846A1 (de) * 2009-12-22 2011-08-17 Harman Becker Automotive Systems GmbH Gruppenverzögerungsbasierende Bassregelung
JP5992409B2 (ja) * 2010-07-22 2016-09-14 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 音再生のためのシステム及び方法
JP5198530B2 (ja) * 2010-09-28 2013-05-15 株式会社東芝 音声付き動画像呈示装置、方法およびプログラム
ITTO20110890A1 (it) * 2011-10-05 2013-04-06 Inst Rundfunktechnik Gmbh Interpolationsschaltung zum interpolieren eines ersten und zweiten mikrofonsignals.
US9258647B2 (en) * 2013-02-27 2016-02-09 Hewlett-Packard Development Company, L.P. Obtaining a spatial audio signal based on microphone distances and time delays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1996021321A1 (en) * 1995-01-06 1996-07-11 Anderson David P Virtual reality television system
WO2009077152A1 (en) * 2007-12-17 2009-06-25 Fraunhofer-Gesellschaft Zur Förderung Der Angewandten Forschung_E.V. Signal pickup with a variable directivity characteristic
US20140198918A1 (en) * 2012-01-17 2014-07-17 Qi Li Configurable Three-dimensional Sound System

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ELIAS ZEA: "Binaural In-Ear Monitoring of acoustic instruments in live music performance", 15TH INTERNATIONAL CONFERENCE ON DIGITAL AUDIO EFFECTS, DAFX 2012 PROCEEDINGS, 1. Januar 2012 (2012-01-01), Seite 1, XP055138455, *
Jens Ahrens ET AL: "Introduction to the SoundScape Renderer (SSR) Contents", , 13. November 2012 (2012-11-13), Seiten 1-38, XP055135549, Gefunden im Internet: URL:https://dev.qu.tu-berlin.de/attachment s/download/1283/SoundScapeRenderer-0.3.4-m anual.pdf [gefunden am 2014-08-20] *
PULKKI V: "Virtual Sound Source Positioning Using Vector Base Amplitude Panning", JOURNAL OF THE AUDIO ENGINEERING SOCIETY, AUDIO ENGINEERING SOCIETY, NEW YORK, NY, US, Bd. 45, Nr. 6, 1. Juni 1997 (1997-06-01), Seiten 456-466, XP002719359, ISSN: 0004-7554 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017140949A1 (en) * 2016-02-19 2017-08-24 Nokia Technologies Oy Controlling audio rendering
IT201700040732A1 (it) * 2017-04-12 2018-10-12 Inst Rundfunktechnik Gmbh Verfahren und vorrichtung zum mischen von n informationssignalen
WO2018188697A1 (de) * 2017-04-12 2018-10-18 Institut für Rundfunktechnik GmbH Verfahren und vorrichtung zum mischen von n informationssignalen
US10834502B2 (en) 2017-04-12 2020-11-10 Institut Fur Rundfunktechnik Gmbh Method and device for mixing N information signals
TWI731326B (zh) * 2019-03-19 2021-06-21 宏達國際電子股份有限公司 高保真度環繞聲格式之音效處理系統及音效處理方法

Also Published As

Publication number Publication date
US20160119734A1 (en) 2016-04-28
US10075800B2 (en) 2018-09-11
DE102013105375A1 (de) 2014-11-27
EP3005737A2 (de) 2016-04-13
CN105264915A (zh) 2016-01-20
KR101820224B1 (ko) 2018-02-28
CN105264915B (zh) 2017-10-24
WO2014187877A3 (de) 2015-02-19
KR20160012204A (ko) 2016-02-02
JP6316407B2 (ja) 2018-04-25
JP2016522640A (ja) 2016-07-28
EP3005737B1 (de) 2017-01-11

Similar Documents

Publication Publication Date Title
EP3005737B1 (de) Mischpult, verfahren und computerprogramm zum bereitstellen eines tonsignals
EP3005732B1 (de) Vorrichtung und verfahren zur raumselektiven audiowiedergabe
DE102010030534A1 (de) Vorrichtung zum Veränderung einer Audio-Szene und Vorrichtung zum Erzeugen einer Richtungsfunktion
EP1872620B9 (de) Vorrichtung und verfahren zum steuern einer mehrzahl von lautsprechern mittels einer graphischen benutzerschnittstelle
EP1878308B1 (de) Vorrichtung und verfahren zur generierung und bearbeitung von toneffekten in räumlichen tonwiedergabesystemen mittels einer graphischen benutzerschnittstelle
EP0905933A2 (de) Verfahren und Vorrichtung zum Mischen von Tonsignalen
WO2005060307A1 (de) Vorrichtung und verfahren zum erzeugen eines tieftonkanals
EP2754151B1 (de) Vorrichtung, verfahren und elektroakustisches system zur nachhallzeitverlängerung
DE102012017296A1 (de) Erzeugung von Mehrkanalton aus Stereo-Audiosignalen
WO2004103024A1 (de) Vorrichtung zum pegel-korrigieren in einem wellenfeldsynthesesystem
DE102016101316A1 (de) Informationsverarbeitungsverfahren und elektronisches Gerät
DE102021103210A1 (de) Surround-Sound-Wiedergabe basierend auf Raumakustik
DE19911507A1 (de) Verfahren zur Verbesserung dreidimensionaler Klangwiedergabe
EP2357854B1 (de) Verfahren und Vorrichtung zur Erzeugung individuell anpassbarer binauraler Audiosignale
DE10318191A1 (de) Verfahren zur Erzeugung und Verwendung einer Übertragungsfunktion
DE102018120804B4 (de) Verfahren und Vorrichtung zur automatischen Konfiguration eines Audio-Ausgabesystems und nichtflüchtiges Speichermedium
EP3314915A1 (de) Verfahren zur schallwiedergabe in reflexionsumgebungen, insbesondere in hörräumen
DE102011003450A1 (de) Erzeugung von benutzerangepassten Signalverarbeitungsparametern
DE102018102743A1 (de) Real Sound Transmission
DE19900961A1 (de) Verfahren und Vorrichtung zur Wiedergabe von Mehrkanaltonsignalen
AT413010B (de) Vorrichtung zur herleitung von räumlichen schallsignalen
EP2503799B1 (de) Verfahren und System zur Berechnung synthetischer Außenohrübertragungsfunktionen durch virtuelle lokale Schallfeldsynthese
DE102016125886B4 (de) Vorrichtung und Verfahren zur effizienten Berechnung einer Auralisation
DE102018216604A1 (de) System zur Übertragung von Schall in den und aus dem Kopf eines Hörers unter Verwendung eines virtuellen akustischen Systems
DE102023125134A1 (de) Räumliches audiomischen

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201480029942.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14729613

Country of ref document: EP

Kind code of ref document: A2

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
REEP Request for entry into the european phase

Ref document number: 2014729613

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014729613

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14892660

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2016514404

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 20157036333

Country of ref document: KR

Kind code of ref document: A