EP3005737B1 - Mixing desk, method and computer program for providing a sound signal - Google Patents

Mixing desk, method and computer program for providing a sound signal Download PDF

Info

Publication number
EP3005737B1
EP3005737B1 EP14729613.1A EP14729613A EP3005737B1 EP 3005737 B1 EP3005737 B1 EP 3005737B1 EP 14729613 A EP14729613 A EP 14729613A EP 3005737 B1 EP3005737 B1 EP 3005737B1
Authority
EP
European Patent Office
Prior art keywords
microphone
signal
source signal
sound
microphones
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP14729613.1A
Other languages
German (de)
French (fr)
Other versions
EP3005737A2 (en
Inventor
Christoph SLADECZEK
Annika NEIDHARDT
Martina Böhme
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP3005737A2 publication Critical patent/EP3005737A2/en
Application granted granted Critical
Publication of EP3005737B1 publication Critical patent/EP3005737B1/en
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • H04R29/004Monitoring arrangements; Testing arrangements for microphones
    • H04R29/005Microphone arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/027Spatial or constructional arrangements of microphones, e.g. in dummy heads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Definitions

  • Embodiments of the present invention are concerned with an apparatus, method and computer program for providing a sound signal based on at least two source signals recorded by microphones located within a room or an acoustic scene.
  • the acoustic scene should be understood to mean any sound composition or any sound signal.
  • the term acoustic scene is used herein, an acoustic scene in which herein Of course, these senses can also be generated by only a single sound source.
  • the character of such an acoustic scene is determined not only by the number or distribution of the sound sources generating them in a room, but also by the shape or geometry of the room itself.
  • an audio mixing console is often used for the production of audio material, having a plurality of channels, each associated with one of many microphones, which in turn are located within the acoustic scene, for example within a concert hall or the like.
  • the individual audio or source signals can be present both analog and digital, for example as a series of digital sample values, the sample values being equidistant in time and corresponding in each case to an amplitude of the sampled audio signal.
  • a mixer can therefore for example be dedicated Hardware or as a software component on a PC or a programmable CPU implemented, provided that the audio signals are digital.
  • Each individual sound signal or each audio signal to be processed can be assigned to a separate channel strip on the mixer, wherein a channel strip can provide several functionalities for changing the sound of the associated audio signal, for example a change in volume, filtering, mixing with other channel strips, a distribution or a splitting of the relevant channel or the like.
  • each channel has to be adjusted manually based on the real position of the recording microphone within the acoustic scene and compared with a partially significant number of other microphones.
  • a high number of microphone or source signals of, for example, over 100 are recorded simultaneously and possibly processed in real time to a sound mix.
  • the spatial relationship between the individual microphone or source signals thereby generate, this first the positions of the microphones and their assignment to
  • the individual channel strips are noted by hand in order to regulate the volumes and possibly other parameters such as a distribution of volumes for several channels or reverb (pan and reverb) of the individual channel strips so that the sound mix at the desired listening position or for a desired speaker arrangement achieved the desired spatial effect.
  • some embodiments of the present invention enable this by using a sound signal generator to provide a sound signal for a virtual listening position within a room in which an acoustic scene from at least a first microphone at a first known position within the room as a first source signal and at least one second microphone is recorded at a second known position within the room as a second source signal.
  • the audio signal generator has an input interface to receive the first and second source signals received by the first microphone and by the second microphone.
  • a geometry processor within the audio signal generator is configured to obtain, based on the first position and the virtual listening position, first geometry information comprising a first distance between the first known position and the virtual listening position (202), and a first geometry information based on the second position and the virtual listening position second distance between the second known position and the virtual listening position (202) to determine second geometry information so that they can be taken into account by a signal generator, which serves to provide the audio signal.
  • the signal generator is designed to at least the first source signal and the second source signal according to a combination rule combine to get the sound signal.
  • the combination is performed using the first geometry information and the second geometry information.
  • a sound signal may be generated from two source signals recorded by real microphones spatial perception at the location of the virtual listening position correspond or may resemble. This can be achieved, for example, in particular by using geometry information, which for example indicates the relative position between the positions of the real microphones and the virtual monitoring position, directly in the provision or generation of the sound signal for the virtual listening position. This can therefore be possible without complex calculations, so that the provision of the sound signal can be done in real time or approximately in real time.
  • the direct use of geometry information to generate a sound signal for a virtual listening position may also make it possible to create a sound mixture by simply shifting the position or coordinates of the virtual listening position, without the possibly large number of source signals individually and manually adjusted would have to be.
  • the creation of an individual sound mixture can, for example, also enable an efficient control of the setup prior to the actual recording, wherein, for example, the recording quality or the arrangement of the real microphones in the scene can be controlled by virtue of the virtual listening position within the acoustic scene or within the acoustic scene is freely moved in the acoustic space, so that a sound engineer can immediately receive an automatic acoustic feedback, whether the individual microphones are wired correctly or whether they work properly.
  • each individual microphone can be checked without having to hide all of the other microphones if the virtual listening position is brought close to the position of one of the real microphones, so that its share of the provided sound signal dominates. This in turn allows control of the source or audio signal recorded by the respective microphone.
  • embodiments of the invention may eventually enable even when an error occurs during live recording by quickly identifying the error intervene so quickly and fix the error can, for example, by replacing a microphone or a cable that at least large parts of the concert can still be recorded correctly.
  • the previously known positions of the microphones recording the source signals within the acoustic space can be directly taken into account as control parameters or characteristics of individual channel strips in an audio mixing console and preserved or recorded together with the source signal.
  • Some embodiments of the present invention are a mixer for processing at least a first and a second source signal and providing a mixed audio signal
  • the mixer comprising a tone signal generator for providing a sound signal for a virtual listening position within a room in which an acoustic scene of at least a first The microphone is recorded at a first known location within the room as the first source signal and from at least one second microphone at a second known location within the room as the second source signal
  • the audio signal generator comprising: an input interface adapted to receive the one of the second source signal receiving the first microphone recorded first source signal and received by the second microphone second source signal; a geometry processor configured to determine first geometry information based on the first position and the virtual listening position, and determine second geometry information based on the second position and the virtual listening position; and a signal generator for providing the sound signal, wherein the signal generator is configured to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information. This may allow an operator of a mixing console to easily, efficiently
  • the mixer further includes a user interface configured to display a graphical representation of the locations of a plurality of microphones as well as one or more virtual listening positions. That is, some embodiments of mixing consoles also allow a graphical representation of the geometric relationships in the recording of the acoustic scene, which can enable a sound engineer in a simple and intuitive way to create a spatial mix or a microphone setup to control or build up or adjust for recording a complex acoustic scene.
  • a mixing console additionally comprises an input device which is designed to input or change at least the virtual listening position, in particular by direct interaction or influencing of the graphical representation of the virtual listening position.
  • an input device which is designed to input or change at least the virtual listening position, in particular by direct interaction or influencing of the graphical representation of the virtual listening position.
  • Some other mixer embodiments also allow to characterize each of the microphones as belonging to a particular one of several different microphone types via the input interface.
  • a microphone type can correspond to microphones which predominantly record a direct sound component due to their geometric relative position with respect to the objects or sound sources of the acoustic scene to be recorded.
  • a second type of microphone may for the same reason primarily identify a diffuse sound-absorbing microphone.
  • the possibility of assigning the individual microphones to different types can serve, for example, to combine the source signals, which are recorded by the different types, with respectively different combination rules in order to obtain the sound signal for the virtual listening position.
  • This may, according to some embodiments, be used in particular for different combination or superposition rules for microphones, which are predominantly To record diffuse sound and use for those microphones that record predominantly direct sound, in order to arrive at a natural sound impression or a signal that has advantageous properties for the given requirement.
  • the weights for the different microphone types are determined differently. For example, in microphones that predominantly record direct sound, a drop in volume corresponding to the reality can be implemented with increasing distance from the microphone via a suitably chosen weighting factor.
  • the weight is proportional to the inverse of a power of the distance of the microphone to the virtual listening position.
  • the weight is proportional to the inverse of the distance, which corresponds to the sound propagation of an idealized point sound source.
  • the weighting factors are proportional to the near field radius multiplied inverse of the distance of the microphone to the virtual listening position. This can lead to an improved perception of the sound signal by taking into account the assumed influence of a near field radius, within which a constant volume of the source signal is assumed.
  • the sound signal is generated from the recorded source signals x 1 and x 2 by forming a weighted sum
  • the weights g 1 and g 2 depend on the relative positions of the microphones and at the same time fulfill an additional boundary condition.
  • first of all a first intermediate signal and a second intermediate signal are formed from the source signals by means of two weighted sums of different weights.
  • the sound signal is then determined by means of a further weighted sum, wherein the weights are dependent on a correlation coefficient between the first and the second source signal.
  • the sound signals in areas in which the virtual listening position is surrounded by three microphones each recording a source signal, are formed using the three source signals.
  • the provision of the audio signal comprises generating a weighted sum of the three recorded source signals.
  • the microphones associated with the source signals form a triangle, the weights for a source signal being determined based on a perpendicular projection of the virtual listening position to the height of the triangle passing through the position of the respective microphone. Different methods of determining the weights may be used. Nevertheless, the volume can remain approximately unchanged, even if three instead of only two source signals are combined, which can contribute to a more sonically realistic reproduction of the sound field at the virtual listening position.
  • either the first or the second source signal is delayed by a delay time prior to combining the two source signals if a comparison of the first geometry information and the second geometry information satisfies a predetermined criterion, especially if the two distances are less than a minimum allowable distance differ from each other.
  • a predetermined criterion especially if the two distances are less than a minimum allowable distance differ from each other.
  • each of the source signals used is efficiently decelerated such that its propagation time or latency corresponds to the maximum signal propagation time from the location of all participating microphones to the virtual listening position such that destructive interference of similar or identical signals is avoided by a forced identical signal propagation time can.
  • directional dependencies are also taken into account in the superposition or weighted summation of the source signals, that is, the virtual listening position can be assigned a preferred direction and a directional characteristic specified with respect to the preferred direction. This can make it possible to achieve a realistic effect when generating the sound signal by additionally taking into account a known directional characteristic, for example of a real microphone or of the human ear.
  • FIG. 3 shows a schematic representation of an exemplary embodiment of a tone signal generator 100 which comprises an input interface 102, a geometry processor 104 and a signal generator 106.
  • the sound signal generator 100 serves to provide a sound signal for a virtual listening position 202 within a space 200 included in FIG. 1 is indicated only schematically.
  • an acoustic scene is recorded by means of at least a first microphone 204 and a second microphone 206.
  • the source 208 of the acoustic scene is here illustrated only schematically as an area within the space 200 within which a plurality of sound sources may be located, leading to a sound field referred to as an acoustic scene within the space 200, which in turn may be accessed by means of the Microphones 204 and 206 is recorded.
  • the input interface 102 is configured to receive a first source signal 210 received by the first microphone 204 and a second source signal 212 received by the second microphone 206.
  • the first and second source signals 210 and 212 can be both analog and digital signals, which can be transmitted both encoded and uncoded by the microphones. That is, according to some embodiments, the source signals 210 and 212 may already be encoded or compressed according to a compression method such as the Advanced Audio Codec (AAC), MPEG 1, Layer 3 (MP3), or the like.
  • AAC Advanced Audio Codec
  • MP3 Layer 3
  • the first and second mics 204 and 206 are located at known locations within the space 200, which are also known to the geometry processor 104.
  • the geometry processor 104 also knows the position or the coordinates of the virtual listening position 202 and is designed to determine first geometry information 110 from the first position of the first microphone 204 and the virtual listening position 202.
  • the geometry processor 104 is further configured to determine second geometry information 112 from the second position and the virtual listening position 202.
  • first geometry information may include a first distance between the first known position and the virtual listening position and the second geometry information comprises a second distance between the second known position and the virtual listening position.
  • the signal generator is configured to provide the audio signal combining the first source signal 210 and the second source signal 212, the combination following a combination rule according to which both the first geometry information 110 and the second geometry information 112 are considered.
  • the sound signal 120 is thus obtained from the first and the second source signals 210 and 212, in which case the first and the second geometry information 110 and 112 are used. That is, information about the geometric characteristics or relationships between the virtual listening position 12 and the positions of the microphones 204 and 206 are used directly to determine the sound signal 120.
  • a sound signal may thus possibly be obtained in a simple and intuitive manner, which makes it possible to control a functionality of the microphones arranged in the vicinity of the virtual monitoring position 202 without, for example, individually transferring the multiplicity of microphones within an orchestra must be listened to these each assigned channels of a mixer.
  • the sound signal is generated 120 generates, among other things, a weighted sum of the first source signal 210 and the second source signal 212.
  • FIG. 1 For the sake of simplicity and for better understanding only two microphones 204 and 206 are shown, it goes without saying that according to further embodiments of the present invention of a Tonsignalalerer 100 any number of microphones of in FIG. 1 schematically illustrated type can be used to generate a sound signal for a virtual listening position, as will be explained here and with reference to the following embodiments.
  • further source signals x 3 ,..., X n with associated weights g 3 ,..., G n may additionally be taken into account.
  • sound signals are time-dependent, in the present case for reasons of clarity
  • the explicit reference to the time dependence is dispensed with and indications of sound or source signals x are to be understood synonymously with the specification x (t).
  • FIG. 2 schematically shows the space 200, wherein the in FIG. 2 is assumed to be limited by rectangular walls, which are responsible for the emergence of a diffuse sound field. Furthermore, it is assumed for the sake of simplification that, although in the FIG. 2 source 208 may be located within the confined area one or more sources of sound, they can be considered in terms of their effect for the individual microphones initially simplified as a single source.
  • the direct sound emitted by these sound sources is multiply reflected by the walls delimiting the space 200, so that a diffuse sound field generated by the multiple reflections of the already attenuated signals results from uncorrelated superimposed signals having a constant volume at least approximately within the entire space ,
  • This superimposed is a direct sound component, ie the one sound directly from the sound sources located within the source 208 reaches the possible listening positions, in particular so the microphones 220 to 232, without having been previously reflected.
  • the sound field can be conceptually idealized into two components, namely a direct sound component, which directly reaches the corresponding listening position from the place of generation of the sound and a diffuse sound component, which consists of an approximately uncorrelated superimposition of a plurality of directly radiated and reflected signals.
  • the illustration shown may be predominantly direct sound, that is, the volume or sound pressure of the signal picked up by these microphones is predominantly due to a direct portion of sound within the source 208 arranged sound sources ago.
  • the microphones 226-232 recorded a signal predominantly due to the diffuse sound component, since the spatial distance between the source 208 and the microphones 226-232 is large, so that the volume of the direct sound is at least comparable at these positions or less than the volume of the diffuse sound field.
  • a weight g n for the individual source signals depends on the distance between the virtual listening position 202 and the microphones 220 to 232 selected for recording the source signals.
  • FIG. 3 shows an example of a way to determine such a weight or such a factor for multiplication with the source signal, in which case microphone 222 was chosen as an example.
  • the weight g n is chosen to be proportional to the inverse of a power of the first distance d 1 , ie: G 1 ⁇ 1 d 1 n ,
  • a so-called near field radius 242 (r 1 ) is additionally considered for some or all of the microphones 220 to 232.
  • the near field radius 242 corresponds to an area immediately around a sound source, in particular to the area within which the sound wave or the sound front is formed. Within the near field radius, the sound pressure level or the volume of the audio signal is assumed to be constant.
  • the near field radius can also be frequency-dependent.
  • a sound signal at the virtual listening position 202 can be generated by weighting the variables relevant for the control of the acoustic scene or the configuration and wiring of the individual microphones particularly clearly when the virtual Listening position 202 one of the real positions of the microphones 220 to 232 approaches.
  • a frequency independent quantity is assumed for the near field radius r, according to some Further embodiments, a frequency dependence of the near field radius be implemented. According to some embodiments, it is thus assumed for generation of the sound signal that within a near field radius r around one of the microphones 220 to 232 the volume is constant.
  • the weight g 1 is proportional to a quotient of the near field radius r 1 of the considered microphone 222 and the distance d 1 of virtual listening position 202 and microphone 222, so that: G 1 ⁇ r 1 d 1 n ,
  • Such a parameterization or distance dependence can take into account both the considerations for the near field and the considerations for the far field.
  • the far field of a point-shaped sound source is followed by a far field, in which the sound pressure is halved with each doubling of the distance from the sound source when the field propagates freely, ie the level decreases by 6 dB in each case.
  • This property is also known as the law of distance or 1 / r law.
  • sources 208 may be recorded whose sound sources radiate directionally, it may possibly be assumed that point-shaped sound sources, if not a realistic reproduction of the sound field at the location of the virtual listening position 202 in the foreground, but rather the possibility Microphones or the recording quality of a complex acoustic scene quickly and efficiently to control or listen to.
  • the Nahfeldradii for different microphones can be chosen differently according to some embodiments.
  • the different microphone types can be taken into account.
  • a type of microphone is to be understood herein information that, detached from the actual structure of the individual microphone describes a property of the microphone or its use, which differs from an identical property or use of another microphone, which is also for receiving the source 208 is used.
  • An example of such a distinction is the distinction between microphones of a first type (type "D" in FIG FIG. 2 ), which due to their geometric positioning predominantly record direct sound components and such microphones, due to the larger Distance or another relative position with respect to the source 208 predominantly record or record the diffuse sound field (microphones of the type "A" in FIG. 2 ).
  • the use of different Nahfeldradii may be useful.
  • the near-field radius of type A microphones is chosen to be greater than that for type D microphones, which may result in a simple way of controlling the individual microphones when the virtual listening position 202 is placed near them, without the physical Roughly distort conditions or the sound impression, especially since the diffuse sound field, as shown above, is approximately the same over large areas.
  • tone signal generators 100 for combining the source signals use different combination rules when the microphones that record the respective source signals are associated with different microphone types. That is, a first combination rule is used when the two microphones to be combined are associated with a first microphone type and a second combination rule is used when the two microphones to be combined or the source signals recorded by these microphones are assigned to a second, different microphone type ,
  • the microphones of each different type can first be processed completely separated and combined into a sub-signal X virt , whereupon in a final step by the sound signal generator or a mixer used the final signal is generated by combining the previously generated sub-signals.
  • a second partial signal x D could be determined for the virtual listening position 202, which takes into account only the microphones of the type D, ie the microphones 220 to 224, but combines them according to another combination rule.
  • FIG. 4 shows one of the FIG. 2 similar schematic view of an acoustic scene together with positions of microphones 220 to 224, the direct sound record and a series of microphones of the type A, of which in particular the microphones 250 to 256 are to be considered below.
  • a sound signal for the virtual listening position 202 which in the in the FIGS. 4 and 5 represented configuration within a triangular area spanned by the microphones 250 to 254 can be generated.
  • the interpolation of the volume or the generation of the sound signal for the virtual listening position 202 can take place taking into account the positions of the nearest microphones or taking into account the positions of all microphones. For example, it can be advantageous, inter alia for reducing the computational load, to use only the closest microphones for generating the audio signal at the virtual listening position 202. These can be found, for example, by means of a Delaunay triangulation or determined by any other algorithms for searching the nearest neighbors (nearest neighbor). Some specific possibilities for determining the volume adjustment or, generally speaking, for combining the source signals associated with the microphones 250 to 254 will be discussed in more detail below with reference to FIG FIG. 5 , described.
  • virtual listening position 202 were not within one of the triangulation triangles, but outside, for example, at the in FIG. 4 dashed drawn further virtual listening position 260 would be available for interpolation of the signal or for combining a sound signal from the source signals of the microphones only two source signals of the nearest neighbors.
  • the possibility of combining two source signals will also be described below with reference to FIG. 5 discussed, wherein the source signal of the microphone 250 is initially neglected in the interpolation of two source signals.
  • the audio signal for the virtual listening position 202 is generated according to a first fading rule, the so-called linear panning law.
  • the parameter ⁇ which determines the individual weights g 1 and g 2 ranges from 0 ° to 90 ° and is calculated from the distance between the virtual listening position 202 and the microphones 252 and 254.
  • the squares of the weights for arbitrary values of ⁇ to 1 a constant-tone sound signal can be generated by means of the sine-cosine law for any parameter ⁇ if the source signals are decorrelated.
  • a volume increase of 3dB results.
  • the parameter ⁇ is again determined by the distances between the virtual listening position 202 and the microphones, and can be from minus 45 degrees to 45 degrees.
  • a fourth combination rule may be used, according to which the first previously described fade rule and combining the second previously described fading rule depending on the source signals to be combined.
  • the fourth combination rule there is a linear combination of two intermediate signals x virt1 and x virt2 , which were initially generated separately for the source signals x 1 and x 2 according to the first and the second crossfading rule.
  • E denotes the expected value or the linear mean value and ⁇ indicates the standard deviation of the relevant variable or the respective source signal, whereby for acoustic signals to a good approximation the linear mean value E ⁇ x ⁇ is zero.
  • x virt ⁇ x 1 x 2 * x virt 1 + 1 - ⁇ x 1 x 2 * x virt 2 ,
  • the combination rule further comprises forming a weighted sum x virt from the intermediate signals x virt1 and x virt2 weighted with a correlation coefficient ⁇ x1x2 for a correlation between the first source signal x 1 and the second source signal x 2 .
  • a sound signal is to be acquired at a virtual listening position 202 that is within a triangle bounded by three microphones 250 to 254, in accordance with some embodiments of the present invention, the three source signals of the microphones 250 to 254 may be linearly combined in which the individual signal components of the source signals associated with the microphones 250 to 254 are based on a vertical projection of the virtual listening position 202 on the height of the triangle which is assigned to the position of the microphone assigned to the respective source signal.
  • a vertical projection of the virtual listening position 202 to the height 262 is initially made, which is assigned to the microphone 250 or the corner of the triangle at which the microphone 250 is located. This results in the FIG. 5 This in turn divides the height 262 into a first height portion 266 facing the microphone 250 and a height portion 268 facing away from the microphone.
  • the ratio of these height portions 266 and 268 is used to weight according to one of the above fade rules for the source signal of the microphone 250, assuming that at the opposite end of the height 262 from the microphone 250 is a sound source or microphone which constantly records a signal of zero amplitude.
  • the height of each triangle side is determined and the distance of the virtual microphone to each triangle side is determined.
  • the microphone signal is blinded linearly or, depending on the selected fade rule, from the vertex of the triangle to the opposite triangle side to zero.
  • this means that the source signal of the microphone 250 is used with the weight 1 when the projection 264 is at the position of the microphone 250 and zero when it is on the connecting line between the position of the microphones 252 and 254, ie located on the opposite side of the triangle. Between these two extremes becomes the source signal of the microphone 250 faded in or out.
  • the weights g 1 to g 3 for the linear combination of the source signals x 1 to x 3 are determined based on a vertical projection of the virtual listening position 202 on the height of the triangle which is assigned to the position of the microphone assigned to the respective source signal or through the this height runs.
  • a common correlation coefficient for the three source signals x 1 can be determined to x 3, characterized in that first a correlation between the respective adjacent source signals is determined, resulting in a total of three correlation coefficient values. From the three correlation coefficients thus obtained, a common correlation coefficient is formed by averaging, which in turn determines the weighting for the sum of sub-signals formed by the first fading rule (linear panning) and the second fading rule (sine-cosine law). That is, it is first determined a first sub-signal with the sine-cosine law, then a second sub-signal is determined with the linear panning and the two sub-signals are linearly combined by weighting with the correlation coefficient.
  • FIG. 6 is an illustration of another possible configuration of positions of microphones 270 through 278 within which a virtual listening position 202 is located.
  • FIG. 6 another possible combination rule is illustrated, the properties of which can be arbitrarily combined with the above-described possible combinations or which, taken alone, can also be a combination rule in the sense described herein.
  • a source signal only in combination with the sound signal for a virtual listening position 202 taken into account when the microphone associated with the source signal is within a predetermined configurable distance R from the virtual listening position 202.
  • computation time can possibly be saved, for example, by taking into account only those microphones, in accordance with some embodiments whose signal contributions lie above the human hearing threshold according to the selected combination rules.
  • the combination rule further take into account a directional characteristic for the virtual listening position 202. That is to say, for example, the first weight g 1 for the first source signal x 1 of the first microphone 220 may additionally be proportional to a directional factor rf 1 , which results from a sensitivity function or a directional characteristic for the virtual listening position 202 and from the relative position between virtual Listening position 202 and microphone 220. D. h.
  • the first geometry information further comprises first directional information about a direction between the microphone 220 and a preferred direction 280 associated with the virtual listening position 202, in which the directional characteristic 282 has its maximum sensitivity.
  • the weighting factors g 1 and g 2 of the linear combination of the source signals x 1 and x 2 are additionally dependent on a first directional factor rf 1 and a second directional factor rf 2 , which take into account the directional characteristic 280 at the virtual listening position 202 according to some embodiments.
  • signals can be summed up without producing noticeable comb filter effects. It is also safe to sum up signals from microphones whose position intervals comply with the so-called 3: 1 rule.
  • the rule states that when recording a sound source with two microphones, the distance between the sound source and the second microphone should be at least three times the distance from the sound source to the first microphone in order to obtain any noticeable comb filter effects. requirement are microphones of the same sensitivity and the drop of the sound pressure level with the distance, for example according to the 1 / r-law.
  • the system or a tone signal generator or its geometry processor initially determines whether both conditions are met. If this is not the case, the signals can be delayed prior to the calculation of the virtual microphone signal according to the current position of the virtual microphone. If necessary, the distances of all microphones to the virtual microphone are determined and the signals with respect to the microphone, which is furthest from the virtual one, are shifted in time. For this purpose the largest distance is determined and the difference to the remaining distances is formed.
  • the latency ⁇ t i in samples now results from the ratio of the respective distance d i to the sound velocity c multiplied by the sampling rate Fs.
  • the calculated value can be rounded in digital implementations, for example, if the signal is only to be delayed by whole samples.
  • the following variants can be implemented.
  • close microphones or microphones for recording direct sound are referred to below as microphones of a first microphone type and Ambientmikrofone or microphones for recording a diffuse sound component as microphones of a second microphone type.
  • the virtual listening position is also referred to as a position of a virtual microphone.
  • both the signals of the close microphones or of the microphones of a first microphone type and the signals of the ambient microphones fall off according to the law of distance.
  • each microphone can be heard in his position particularly dominant.
  • the near field radii around the near and ambient microphones can first be determined by the user. Within this radius, the volume of the signals remains constant. If you now place the virtual microphone in the recording scene, the distances from the virtual microphone to each individual real microphone are calculated. For this, the sample values of the microphone signals x i [t] is divided by the instantaneous distance d i and multiplied by the near field radius r nah . N indicates the number of recording microphones: x i .
  • a separation of the direct and diffuse sound should be approximately equal in volume throughout the room.
  • the room is arranged by the arrangement of Ambientmikrofone in certain areas.
  • the diffuse sound component is calculated from one, two or three microphone signals. The signals of the Nahmikrofone fall off with the distance according to the distance law.
  • Figure 4 shows an example of a room layout.
  • the dots symbolize the ambient microphones.
  • the outer ambient microphones form a polygon.
  • the area within this polygon is divided into triangles.
  • Delaunay triangulation is used.
  • a triangle mesh can be formed from a set of points. Above all, it is distinguished by the fact that the circumference of a triangle does not include any further points of the set. By fulfilling this so-called perimeter condition, triangles are created with the largest possible interior angles. In Figure 4 this triangulation is represented by four points.
  • Delaunay triangulation groups closely spaced microphones and maps each microphone to the surrounding space.
  • the signal for the virtual microphone is calculated within the polygon of three microphone signals. Outside the polygon, two vertical lines are defined for each connecting line of two vertices, which run through the corner points. This limits certain areas outside the polygon as well.
  • the virtual microphone can thus be located either between two microphones or with a microphone at a corner point.
  • To calculate the diffuse sound component it should first be determined whether the virtual microphone is inside or outside the polygon forming the edge. ever by position, the diffused portion of the virtual microphone signal is calculated from one, two or three microphone signals.
  • ⁇ x 1 x 2 e x 1 - e x 1 * x 2 - e x 2 ⁇ x 1 ⁇ x 2 ⁇ e x 1 * x 2 ⁇ x 1 ⁇ x 2
  • x virt ⁇ x 1 x 2 * x virt 1 + 1 - ⁇ x 1 x 2 * x virt 2 .
  • x virt 1 G 1 * x 1 + 1 - G 1 * x 2 .
  • g 2 (1- g 1 );
  • x virt 2 cos ⁇ * x 1 + sin ⁇ * x 2 where ⁇ E [0 °; 90 °]; "Sine-cosine law.”
  • the correlation coefficient may not only describe an instantaneous value, but may be integrated over a period of time. At the correlation meter For example, this period can be 0.5 s. Since the exemplary embodiments of the invention or the virtual microphones do not always have to be real-time capable systems, the correlation coefficient can also be determined over a longer period of time, for example 30 s
  • the diffused sound component of the virtual microphone signal is composed of the three source signals of the microphones located at the corners.
  • the height h of each triangle side is determined and the distance d v i rtMic of the virtual microphone to each triangle side is determined.
  • the microphone signal is blended to zero from one vertex to the opposite side of the triangle along the corresponding height.
  • the panning methods described above can be used, which are also used for the calculation of the signal outside the polygon.
  • the division of the distance d virtMic by the value of the height h normalizes the distance to a length of 1 and delivers the corresponding position on the panning curve.
  • the value can be read on the y-axis, with which each of the three signals is multiplied according to the set panning method.
  • the correlation coefficient is first determined from two respective source signals. This gives three correlation coefficients, from which the mean value is subsequently formed.
  • the distances of all microphones to the virtual microphone are first determined and determined from which microphones are within the circle.
  • the signals of the microphones which are outside the circle are set to zero or get the weight 0.
  • the virtual microphone can be provided with a directional vector r, which initially points in the main direction of the directional characteristic (in the polar diagram). Since the directional characteristic of a microphone can be effective only for direct sound for some embodiments, then the directional characteristic affects only the signals of the Nahmikrofone. The signals of the ambient microphones are included unchanged in the calculation according to the combination rule. From the virtual microphone Vectors are formed to all close-up microphones. For each of the close-up microphones, the angle ⁇ i, close between this vector and the directional vector of the virtual microphone is calculated. In FIG. 7 this is exemplified for a microphone 220.
  • the virtual microphone can be rotated with an accuracy of 1 ° or less.
  • FIG. 8 12 schematically shows a mixer 300 comprising a tone signal generator 100 and by means of which signals can be received by microphones 290 to 295 which are used to record an acoustic scene 208.
  • the mixer serves to process the source signals from at least two microphones 290 to 295 and to provide a mixed-tone signal 302, which is included in the FIG. 8 selected representation is indicated only schematically.
  • the mixer further includes a user interface 306 configured to display a graphical representation of the positions of the plurality of microphones 290 to 295, and additionally the position of a virtual listening position 202 within the acoustic space the microphones 290 to 295 are located is arranged.
  • the user interface further allows each of the microphones 290 to 295 to be assigned a type of microphone, for example, a first type (1) identifying microphones for direct sound recording and a second type (2) designating microphones for recording diffuse sound components.
  • the user interface is further adapted to provide a user of the mixer in a simple manner, for example by movement of a in FIG. 8 schematically illustrated cursor 310 or a computer mouse, the virtual listening position 202 intuitively and easily to move Thus, in a simple manner to allow control of the entire acoustic scene or the recording equipment.
  • FIG. 9 schematically shows an embodiment of a method for providing a sound signal comprising in a signal receiving step 500 receiving a first source signal x 1 picked up by the first microphone and a second source signal x 2 picked up by the second microphone.
  • first geometry information is determined based on the first position and the virtual listening position and second geometry information based on the second position and the virtual listening position.
  • a combining step 505 at least the first source signal x 1 and the second source signal x 2 are combined according to a combination rule using the first geometry information and the second geometry information.
  • FIG. 10 again schematically shows a user interface 306 for an embodiment of the invention, which differs from the in FIG. 8 slightly different.
  • the positions of the microphones can be specified, in particular as sound sources or microphones of different types or microphones (1,2,3,4).
  • the position of at least one receiver or a virtual listening position 202 can be specified (circle with cross).
  • Each sound source may be associated with one of the mixer channels 310-316.
  • the first virtual Ab workshopposition would be generated, which also has a frequency-dependent directional characteristic, so that the signal propagation along the ear canal in the sense of a Head-Related-Transfer-Function (HRTF) on the frequency-dependent directional characteristic could be simulated.
  • HRTF Head-Related-Transfer-Function
  • two mono signals would be obtained which correspond directly to the sound impression that a real listener would have at the location of the virtual listening position when listening directly to, for example, a headphone.
  • a conventional stereo microphone can also be simulated.
  • each microphone can already be allocated a position in the mixing console in the setup process before the actual recording.
  • the sound mixing no longer has to be done by adjusting the volume for each sound source on the channel strip, but can be done by specifying a position of the receiver in the sound source scene (eg: simple click with the mouse in the scene).
  • a selectable model for calculating the volume at the receiver site Based on a selectable model for calculating the volume at the receiver site, a new signal is calculated for each repositioning of the receiver. By "shutting down" the single microphones, a noise signal can be identified very quickly.
  • by positioning a spatial sound mixture can be created if the receiver signal is used as the output speaker signal on. It is no longer necessary to set a volume for each individual channel; the setting is made by selecting the position of the receiver for all sound sources simultaneously.
  • the algorithms also offer a novel creative tool.
  • a scheme for volume interpolation shows FIG. 5 ,
  • the calculation of the volume arriving at the receiver is based on the position of the receiver between two or more microphones.
  • the selection of the active sound sources can be determined by so-called “nearest-neighbor” algorithms.
  • the calculation of an audible signal at the receiver location or at the virtual listening position is effected by an interpolation rule between two or more sound source signals.
  • the respective volumes are adjusted dynamically to allow the listener a constantly pleasant volume.
  • sound sources can be activated by another algorithm.
  • an area around the receiver with the radius R is defined. The value of R can be varied by the user. If the sound source is in this range, it is audible to the receiver.
  • This algorithm shown in FIG. 6, can also be combined with the distance-dependent volume calculation. So there is an area with the radius R around the receiver. If sound sources are within the radius, they are audible to the receiver. If the sound sources are outside, their signal is not included in the calculation of the output signal.
  • the directional characteristic may be a frequency-dependent filter or a pure volume value.
  • FIG. 7 shows this schematically.
  • the virtual receiver is provided with a direction vector which can be rotated by the user.
  • a selection of simple ones Geometries are presented to the user as well as a selection of directional characteristics of popular microphone types and also some examples of human ears to create a virtual listener.
  • the receiver or the virtual microphone at the virtual listening position has, for example, a cardioid characteristic. Depending on this directional characteristic, the signals of the sound sources have a different influence on the receiver.
  • some embodiments consist of a mixer for processing at least a first and a second source signal and providing a mixed audio signal
  • the mixer comprising a tone signal generator for providing a sound signal for a virtual listening position within a room in which an acoustic scene of at least a first microphone at a first known location within the room as the first source signal and from at least one second microphone at a second known location within the room as the second source signal
  • the audio signal generator comprising: an input interface adapted to be from the first source signal Microphone received first source signal and received by the second microphone second source signal to receive; a geometry processor configured to determine first geometry information based on the first position and the virtual listening position, and determine second geometry information based on the second position and the virtual listening position; and one A signal generator for providing the sound signal, wherein the signal generator is adapted to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information.
  • the signal generator is configured to use a first combination rule when the first microphone and the second microphone are associated with a first microphone type and to use a second, different combination rule when the first microphone and the second microphone are a second microphone type assigned.
  • a first near field radius r 1 is used according to the first combination rule, and a second, different near field radius r 2 is used according to the second combination rule.
  • the first type of microphone is associated with a microphone for receiving a direct portion of sound of the acoustic scene
  • the second type of microphone being associated with a microphone for receiving a diffuse sound portion of the acoustic scene.
  • the first combination rule comprises forming a weighted sum of the first source signal and the second source signal, having a first weight g 1 for the first source signal and a second weight g 2 for the second source signal, the first weight g 1 for the first source signal Source signal proportional to the inverse of a power of the first distance d 1 and the second weight g 2 for the second source signal is proportional to the inverse of a power of the second distance d 2 .
  • a third signal x 3 having a third weight g 3 is also taken into account, wherein the positions of the microphones associated with the source signals x 1 , x 2, and x 3 span a triangular area within of which the virtual interception position is located and wherein the weights g 1 , g 2 and g 3 for each of the source signals x 1 , x 2 and x 3 are respectively determined based on a perpendicular projection of the virtual interception position to the height of the triangle corresponding to the position associated with the respective source signal associated microphone.
  • a tone signal generator for providing a virtual intercept position tone signal based on a first source signal and a second source signal, comprising: a geometry processor configured to obtain first geometry information based on a first position associated with the first source signal; to determine second geometry information associated with the second source signal; and a signal generator for providing the audio signal, wherein the signal generator is formed, at least the first source signal and to combine the second source signal according to a combination rule using the first geometry information and the second geometry information , wherein according to the combination rule, a first sub-signal x virt1 is formed according to a first cross-fade rule and a second sub-signal x virt2 according to a second cross-fade rule , and wherein the providing of the audio signal further comprising forming a weighted sum x virt from the signals x virt1 and x virt2 weighted with a correlation coefficient ⁇ x1x2 for a correlation between the first source signal x 1 and the second source signal
  • Some examples are a tone signal generator for providing a sound signal for a virtual listening position within a room, in which an acoustic scene of at least a first microphone at a first known position within the room as a first source signal and at least a second microphone at a second known position is recorded within the room as a second source signal, comprising: an input interface configured to receive the first source signal received by the first microphone and the second source signal received by the second microphone; a geometry processor configured to determine, based on the first known position and the virtual listening position, first geometry information comprising a first distance between the first known position and the virtual listening position and a second distance based on the second known position and the virtual listening position determine second geometry information comprising between the second known position and the virtual listening position; and a signal generator for providing the sound signal, wherein the signal generator is configured to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information.
  • aspects have been described in the context of a tone signal generator, it will be understood that these aspects also constitute a description of the corresponding method such that a block or device of a tone signal generator is also to be understood as a corresponding method step or feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding tone signal generator.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-Ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals, which can cooperate with a programmable hardware component or cooperate such that the respective method is performed.
  • CPU central processing unit
  • GPU graphics processing unit
  • ASIC application-specific integrated circuit
  • IC Integrated Circuit
  • SOC system on chip
  • FPGA Field Programmable Gate Array
  • the digital storage medium may therefore be machine or computer readable.
  • some embodiments include a data carrier having electronically readable control signals capable of interacting with a programmable computer system or programmable hardware component such that one of the methods described herein is performed.
  • One embodiment is thus a data carrier (or a digital storage medium or a computer readable medium) on which the program is recorded for performing any of the methods described herein.
  • embodiments of the present invention may be implemented as a program, firmware, computer program, or computer program product having program code or data, the program code or data operative to perform one of the methods when the program resides on a processor or a processor programmable hardware component expires.
  • the program code or the data can also be stored, for example, on a machine-readable carrier or data carrier.
  • the program code or the data may be present, inter alia, as source code, machine code or bytecode as well as other intermediate code.
  • Another embodiment is further a data stream, a signal sequence, or a sequence of signals that represents the program for performing any of the methods described herein.
  • the data stream, the signal sequence or the sequence of signals can be configured, for example, to be transferred via a data communication connection, for example via the Internet or another network.
  • Embodiments are also data representing signal sequences that are suitable for transmission over a network or a data communication connection, the data representing the program.
  • a program may implement one of the methods during its execution by, for example, reading or writing one or more data into memory locations, thereby optionally switching operations or other operations in transistor structures, amplifier structures, or others electrical, optical, magnetic or operating according to another operating principle components are caused. Accordingly, by reading a memory location, data, values, sensor values or other information can be detected, determined or measured by a program.
  • a program can therefore acquire, determine or measure quantities, values, measured variables and other information by reading from one or more storage locations, as well as effect, initiate or execute an action by writing to one or more storage locations and control other devices, machines and components ,

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)

Description

Ausführungsbeispiele der vorliegenden Erfindung befassen sich mit einer Vorrichtung, einem Verfahren und einem Computerprogramm zum Bereitstellen eines Tonsignals, das auf zumindest zwei Quellsignalen basiert, die von Mikrofonen, die innerhalb eines Raumes oder einer akustischen Szene angeordnet sind, aufgezeichnet werden.Embodiments of the present invention are concerned with an apparatus, method and computer program for providing a sound signal based on at least two source signals recorded by microphones located within a room or an acoustic scene.

Komplexere Aufnahmen bzw. akustische Szenen werden üblicherweise unter der Verwendung von Audiomischpulten aufgezeichnet, insoweit es die Aufzeichnung der Tonsignale betrifft. Als akustische Szene soll dabei jedwede Schallzusammensetzung bzw. jedwedes Schallsignal verstanden werden. Um der Tatsache Rechnung zu tragen, dass das bei einem Hörer bzw. an eine Abhörposition empfangene akustische Signal bzw. Schall- oder Audiosignal typischerweise von einer Vielzahl von unterschiedlichen Quellen herrührt, wird hierin der Begriff akustische Szene verwendet, wobei eine akustische Szene in dem hierin genannten Sinne selbstverständlich auch von lediglich einer einzigen Schallquelle erzeugt werden kann. Den Charakter einer solchen akustischen Szene bestimmt jedoch nicht nur die Anzahl bzw. die Verteilung der diese erzeugenden Schallquellen in einem Raum, sondern auch die Form bzw. Geometrie des Raumes selbst. Beispielsweise werden in geschlossenen Räumen als ein Anteil der Raumakustik den einen Zuhörer direkt von der Schallquelle erreichenden Schallanteilen durch die Begrenzungswände verursachte Reflexionen überlagert, die vereinfachend als unter Anderem zeitlich verzögerte und abgeschwächten Kopie der direkten Schallanteile verstanden werden können.More complex recordings or acoustic scenes are usually recorded using audio mixing consoles as far as the recording of the audio signals is concerned. The acoustic scene should be understood to mean any sound composition or any sound signal. To account for the fact that the acoustic signal or audio signal received at a listener position is typically from a variety of different sources, the term acoustic scene is used herein, an acoustic scene in which herein Of course, these senses can also be generated by only a single sound source. However, the character of such an acoustic scene is determined not only by the number or distribution of the sound sources generating them in a room, but also by the shape or geometry of the room itself. For example, in closed rooms, as a part of the room acoustics, the one listener will speak directly superimposed on the sound source reaching sound components caused by the boundary walls reflections that can be understood simplistic as, inter alia, delayed and attenuated copy of the direct sound components.

In solchen Umgebungen wird zur Produktion von Audiomaterial oft ein Audiomischpult verwendet, das eine Vielzahl von Kanälen bzw. Eingängen aufweist, die jeweils einem von vielen Mikrofonen zugeordnet sind, die wiederum innerhalb der akustischen Szene, beispielsweise innerhalb eines Konzertsaals oder dergleichen, angeordnet sind. Die einzelnen Audio- bzw. Quellsignale können dabei sowohl analog als auch digital vorliegen, beispielsweise als eine Serie von digitalen Samplewerten, wobei die Samplewerte zeitlich äquidistant sind und jeweils zu einer Amplitude des gesampelten Audiosignales korrespondieren. Je nach verwendetem Audiosignal kann ein solches Mischpult daher beispielsweise als dedizierte Hardware oder als Softwarekomponente auf einem PC bzw. einer programmierbaren CPU implementiert sein, sofern die Audiosignale digital vorliegen. Elektrische Tonsignale, die mit solchen Audiomischpulten verarbeitet werden können, können außer von Mikrofonen auch von anderen Zuspielern, beispielsweise von Instrumenten und Effektgeräten oder dergleichen herrühren. Jedes Einzeltonsignal bzw. jedes zu verarbeitende Audiosignal kann dabei einem separaten Kanalzug am Mischpult zugeordnet werden, wobei ein Kanalzug mehrere Funktionalitäten zur klanglichen Veränderung des assoziierten Audiosignals bereitstellen kann, beispielsweise eine Veränderung der Lautstärke, eine Filterung, eine Mischung mit anderen Kanalzügen, eine Verteilung bzw. ein Splitten des betreffenden Kanals oder dergleichen.In such environments, an audio mixing console is often used for the production of audio material, having a plurality of channels, each associated with one of many microphones, which in turn are located within the acoustic scene, for example within a concert hall or the like. The individual audio or source signals can be present both analog and digital, for example as a series of digital sample values, the sample values being equidistant in time and corresponding in each case to an amplitude of the sampled audio signal. Depending on the audio signal used, such a mixer can therefore for example be dedicated Hardware or as a software component on a PC or a programmable CPU implemented, provided that the audio signals are digital. Electrical sound signals that can be processed with such audio mixing consoles may, in addition to microphones, also originate from other players, for example from instruments and effect devices or the like. Each individual sound signal or each audio signal to be processed can be assigned to a separate channel strip on the mixer, wherein a channel strip can provide several functionalities for changing the sound of the associated audio signal, for example a change in volume, filtering, mixing with other channel strips, a distribution or a splitting of the relevant channel or the like.

Bei der Aufnahme von komplexen Audioszenen, beispielsweise von Konzertmitschnitten, ist es häufig die Aufgabe, das Tonsignal bzw. die abgemischte Aufnahme so zu erzeugen, dass für einen Hörer beim Abhören der Aufnahme ein möglichst originalgetreuer Klangeindruck entsteht. Dabei muss diese sogenannte Abmischung der ursprünglich aufgenommenen Mikrofon- bzw. Quellsignale für unterschiedliche Wiedergabekonfigurationen möglicherweise unterschiedlich erfolgen, beispielsweise für unterschiedliche Anzahlen an Ausgangs-Kanälen bzw. Lautsprechern. Beispiele hierfür wären eine Stereo-Konfiguration und Mehrkanalkonfigurationen wie beispielsweise 4.0, 5.1 oder dergleichen. Um eine solche räumliche Tonmischung bzw. Abmischung erstellen zu können, wird bislang für jede Schallquelle bzw. für jedes Mikrofon- bzw. Quellsignal die Lautstärke am jeweiligen Kanalzug so eingestellt, dass für die gewünschte Abhörkonfiguration die vom Tonmeister gewünschte Räumlichkeit entsteht. Dies wird überwiegend dadurch erreicht, dass durch sogenannte Panning-Algorithmen die Lautstärke zwischen mehreren Wiedergabekanälen bzw. Lautsprechern so verteilt wird, dass eine Phantomschallquelle zwischen den Lautsprechern entsteht, um einen räumlichen Eindruck zu erzielen. Das bedeutet, beim Zuhörer entsteht auf Grund der unterschiedlichen Lautstärken für die einzelnen Wiedergabekanäle beispielsweise der Eindruck, das wiedergegebene Objekt befinde sich räumlich zwischen den Lautsprechern. Um dies zu ermöglichen muss bislang jeder Kanal basierend auf der realen Position des aufzeichnenden Mikrofons innerhalb der akustischen Szene von Hand justiert und mit einer teilweise erheblichen Anzahl weiterer Mikrofone abgeglichen werden.When recording complex audio scenes, such as concert recordings, it is often the task to produce the sound signal or the mixed recording so that a listener when listening to the recording as faithful as possible true sound produced. In this case, this so-called mixing of the originally recorded microphone or source signals for different reproduction configurations may have to be different, for example for different numbers of output channels or loudspeakers. Examples would be a stereo configuration and multi-channel configurations such as 4.0, 5.1 or the like. In order to create such a spatial sound mixing or mixing, so far for each sound source or for each microphone or source signal, the volume on the respective channel strip is set so that for the desired Abhörkonfiguration created by the sound engineer room. This is mainly achieved by so-called panning algorithms, the volume between multiple playback channels or speakers is distributed so that a phantom sound source between the speakers is created to achieve a spatial impression. This means, for example, that the listener will create the impression that the reproduced object is located spatially between the speakers due to the different volume levels for the individual playback channels. In order to make this possible, each channel has to be adjusted manually based on the real position of the recording microphone within the acoustic scene and compared with a partially significant number of other microphones.

Noch komplizierter und zeit- bzw. kostenaufwendiger werden derartige Tonmischungen, wenn beim Zuhörer der Eindruck entstehen soll, die aufgezeichnete Schallquelle bewege sich. Dann muss für jede der zeitlich veränderlichen räumlichen Konfigurationen bzw. für jeden Zeitschritt innerhalb der Bewegung einer Schallquelle die Lautstärke für alle beteiligten Kanalzüge von Hand nachjustiert werden, was nicht nur äußerst aufwändig, sondern auch fehleranfällig ist.Even more complicated and time consuming or costly such sound mixtures, if the listener to create the impression, move the recorded sound source yourself. Then, for each of the time-varying spatial configurations or for each time step within the movement of a sound source, the volume for all channel strips involved must be readjusted manually, which is not only extremely time-consuming, but also prone to error.

In manchen Szenarien, beispielsweise bei der Aufnahme eines Symphonieorchesters, wird eine hohe Anzahl von Mikrofon- bzw. Quellsignalen von beispielsweise über 100 gleichzeitig aufgenommen und möglicherweise in Echtzeit zu einer Tonmischung verarbeitet. Um eine solche räumliche Abmischung zu erzielen, muss bislang der Bediener bzw. Tonmeister an einem herkömmlichen Mischpult zumindest im Vorfeld der eigentlichen Aufnahme die räumliche Beziehung zwischen den einzelnen Mikrofon- bzw. Quellsignalen dadurch erzeugen, das dieser zunächst die Positionen der Mikrofone und deren Zuordnung zu den einzelnen Kanalzügen von Hand notiert, um die Lautstärken und möglicherweise andere Parameter wie beispielsweise eine Verteilung von Lautstärken für mehrere Kanäle oder Hall (Pan und Hall) der einzelnen Kanalzüge so zu regeln, dass die Tonmischung an der gewünschten Abhörposition bzw. für eine gewünschte Lautsprecheranordnung den angestrebten räumlichen Effekt erzielt. Bei einem Symphonieorchester mit mehr als 100 Instrumenten, von denen jedes als direktes Quellsignal separat aufgezeichnet wird, kann dies eine nahezu unlösbare Aufgabe darstellen. Um auch nach der Aufnahme eine der Realität vergleichbare räumliche Anordnung der aufgezeichneten Quellsignale der Mikrofone im Mischpult nachzubilden, wurden bisher die Positionen der Mikrofone von Hand skizziert oder deren Positionen nummeriert um dann durch eine Lautstärkeeinstellung aller Einzelkanalzüge die räumliche Tonmischung in einer aufwändigen Prozedur nachbilden zu können. Bei einer sehr großen Anzahl von aufzunehmenden Mikrofonsignalen stellt jedoch nicht allein das nachfolgende Abmischen einer erfolgreichen Aufnahme eine große Herausforderung dar.In some scenarios, for example when recording a symphony orchestra, a high number of microphone or source signals of, for example, over 100 are recorded simultaneously and possibly processed in real time to a sound mix. In order to achieve such a spatial blending, so far the operator or sound engineer on a conventional mixing console at least in advance of the actual recording, the spatial relationship between the individual microphone or source signals thereby generate, this first the positions of the microphones and their assignment to The individual channel strips are noted by hand in order to regulate the volumes and possibly other parameters such as a distribution of volumes for several channels or reverb (pan and reverb) of the individual channel strips so that the sound mix at the desired listening position or for a desired speaker arrangement achieved the desired spatial effect. In a symphony orchestra with more than 100 instruments, each of which is recorded separately as a direct source signal, this can be an almost impossible task. In order to replicate a realistic spatial arrangement of the recorded source signals of the microphones in the mixer even after recording, the positions of the microphones have been sketched by hand or numbered their positions to then reproduce the spatial sound mixing in a complex procedure by adjusting the volume of all individual channels , However, with a very large number of microphone signals to be recorded, it is not only the subsequent mixing of a successful recording that poses a great challenge.

Vielmehr ist es bei einer großen Anzahl von aufzuzeichnenden Quellsignalen schon eine schwer zu lösende Aufgabe, sicherzustellen, dass sämtliche Mikrofonsignale störungsfrei am Mischpult bzw. an einer zur Tonmischung verwendeten Software angeliefert werden. Dies muss bislang überprüft werden, indem der Tonmeister bzw. ein Bediener eines Mischpultes alle Kanalzüge getrennt durchhört bzw. überprüft, was sehr zeitaufwendig ist und im Falle des Auftretens eines Störsignals, dessen Ursprung nicht sofort lokalisiert werden kann, eine zeitaufwendige Fehlersuche zur Folge hat. Beim Durchhören bzw. An- und Ausschalten von einzelnen Kanälen bzw. Quellsignalen muss darüber hinaus genau darauf geachtet werden, dass die zusätzlichen Aufzeichnungen, die das Mikrofonsignal und die Position derselben während der Aufzeichnung mit dem Kanal des Mischpults assoziierten, fehlerfrei sind. Allein diese Kontrolle kann bei großen Aufnahmen mehrere Stunden in Anspruch nehmen, wobei darüber hinaus Fehler, die bei der komplexen Kontrolle gemacht werden, im Nachhinein schwer oder überhaupt nicht mehr zu kompensieren sind, nachdem die Aufnahme abgeschlossen ist.Rather, with a large number of source signals to be recorded, it is already a difficult task to ensure that all microphone signals are delivered without interference to the mixer or to a software used for audio mixing. So far, this has to be checked by the sound engineer or an operator of a mixer listening to each channel strips separately or checked, which is very time consuming and in the event of the occurrence of an interference signal whose origin can not be located immediately, a time-consuming troubleshooting result. When listening in or switching on and off of individual channels or source signals must also be paid close attention will be that the extra recordings that associated the microphone signal and its position with the mixer's channel during recording are sound. But this control can take several hours for large shots, and moreover, errors that are made in the complex control, in retrospect difficult or impossible to compensate after the recording is completed.

Es besteht also die Notwendigkeit, bei der Aufnahme von akustischen Szenen mittels zumindest zwei Mikrofonen ein Konzept bereitzustellen, das das Anfertigen und/oder das Abmischen der Aufzeichnung effizienter und mit geringerer Fehleranfälligkeit ermöglichen kann.Thus, when recording acoustic scenes by means of at least two microphones, there is a need to provide a concept that can make the making and / or mixing of the recording more efficient and less susceptible to error.

Diese Aufgabe wird durch ein Mischpult, einen Tonsignalerzeuger, ein Verfahren und ein Computerprogramm jeweils mit den Merkmalen der unabhängigen Patentansprüche gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen sind Gegenstand der abhängigen Ansprüche.This object is achieved by a mixer, a tone signal generator, a method and a computer program each having the features of the independent claims. Advantageous embodiments and further developments are the subject of the dependent claims.

Einige Ausführungsbeispiele der vorliegenden Erfindung ermöglichen dies insbesondere durch Verwendung eines Tonsignalerzeugers zum Bereitstellen eines Tonsignals für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als ein erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als ein zweites Quellsignal aufgezeichnet wird. Um dies zu ermöglichen, weist der Tonsignalerzeuger eine Eingangsschnittstelle auf, um die von dem ersten Mikrofon und von dem zweiten Mikrofon aufgenommenen ersten und zweiten Quellsignale zu empfangen. Ein Geometrieprozessor innerhalb des Tonsignalerzeugers ist ausgebildet, um basierend auf der ersten Position und der virtuellen Abhörposition eine einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition (202) umfassende erste Geometrieinformation und um basierend auf der zweiten Position und der virtuellen Abhörposition eine einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition (202) umfassende zweite Geometrieinformation zu bestimmen, sodass diese von einem Signalerzeuger, der zum Bereitstellen des Tonsignales dient, berücksichtigt werden können. Dazu ist der Signalerzeuger ausgebildet, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer Kombinationsregel zu kombinieren, um das Tonsignal zu erhalten. Dabei erfolgt gemäß den Ausführungsbeispielen der vorliegenden Erfindung die Kombination unter Verwendung der ersten Geometrieinformation und der zweiten Geometrieinformation. Das heißt, gemäß den Ausführungsbeispielen der vorliegenden Erfindung kann für eine virtuelle Abhörposition, an der sich in der abzumischenden bzw. aufzuzeichnenden akustischen Szene kein reales Mikrofon befinden muss, aus zwei Quellsignalen, die mittels realer Mikrofone aufgezeichnet werden, ein Tonsignal erzeugt werden, das der räumlichen Wahrnehmung am Ort der virtuellen Abhörposition entsprechen oder ähneln kann. Dies kann beispielsweise insbesondere dadurch erreicht werden, dass Geometrieinformationen, die beispielsweise die Relativposition zwischen den Positionen der realen Mikrofone und der virtuellen Abhörposition angeben, direkt bei der Bereitstellung bzw. Erzeugung des Tonsignals für die virtuelle Abhörposition verwendet werden. Dies kann daher ohne aufwendige Berechnungen möglich sein, sodass die Bereitstellung des Tonsignals in Echtzeit oder näherungsweise in Echtzeit erfolgen kann.In particular, some embodiments of the present invention enable this by using a sound signal generator to provide a sound signal for a virtual listening position within a room in which an acoustic scene from at least a first microphone at a first known position within the room as a first source signal and at least one second microphone is recorded at a second known position within the room as a second source signal. To facilitate this, the audio signal generator has an input interface to receive the first and second source signals received by the first microphone and by the second microphone. A geometry processor within the audio signal generator is configured to obtain, based on the first position and the virtual listening position, first geometry information comprising a first distance between the first known position and the virtual listening position (202), and a first geometry information based on the second position and the virtual listening position second distance between the second known position and the virtual listening position (202) to determine second geometry information so that they can be taken into account by a signal generator, which serves to provide the audio signal. For this purpose, the signal generator is designed to at least the first source signal and the second source signal according to a combination rule combine to get the sound signal. In this case, according to the exemplary embodiments of the present invention, the combination is performed using the first geometry information and the second geometry information. That is, according to the embodiments of the present invention, for a virtual listening position at which no real microphone needs to be located in the acoustic scene to be mixed, a sound signal may be generated from two source signals recorded by real microphones spatial perception at the location of the virtual listening position correspond or may resemble. This can be achieved, for example, in particular by using geometry information, which for example indicates the relative position between the positions of the real microphones and the virtual monitoring position, directly in the provision or generation of the sound signal for the virtual listening position. This can therefore be possible without complex calculations, so that the provision of the sound signal can be done in real time or approximately in real time.

Das direkte Verwenden von Geometrieinformationen zum Erzeugen eines Tonsignals für eine virtuelle Abhörposition kann es ferner ermöglichen, durch einfaches Verschieben bzw. Verändern der Position bzw. der Koordinaten der virtuellen Abhörposition eine Tonmischung zu erstellen, ohne dass die möglicherweise große Anzahl von Quellsignalen individuell und manuell angepasst werden müsste. Das Erstellen einer individuellen Tonmischung kann beispielsweise auch eine effiziente Kontrolle des Setups vor der eigentlichen Aufzeichnung ermöglichen, wobei beispielsweise die Aufnahmequalität bzw. die Anordnung der realen Mikrofone in der Szene dadurch kontrolliert werden kann, dass die virtuelle Abhörposition innerhalb der akustischen Szene bzw. innerhalb des akustischen Raumes frei bewegt wird, sodass ein Toningenieur unmittelbar ein automatisches akustisches Feedback erhalten kann, ob die einzelnen Mikrofone korrekt verkabelt sind bzw. ob diese ordnungsgemäß funktionieren. Beispielsweise kann so die Funktionalität jedes einzelnen Mikrofones überprüft werden, ohne dass sämtliche der anderen Mikrofone ausgeblendet werden müssten, wenn die virtuelle Abhörposition nahe an die Position eines der realen Mikrofone herangeführt wird, sodass dessen Anteil am bereitgestellten Tonsignal dominiert. Dies wiederum ermöglicht eine Kontrolle des von dem betreffenden Mikrofon aufgezeichneten Quell- bzw. Audiosignals.The direct use of geometry information to generate a sound signal for a virtual listening position may also make it possible to create a sound mixture by simply shifting the position or coordinates of the virtual listening position, without the possibly large number of source signals individually and manually adjusted would have to be. The creation of an individual sound mixture can, for example, also enable an efficient control of the setup prior to the actual recording, wherein, for example, the recording quality or the arrangement of the real microphones in the scene can be controlled by virtue of the virtual listening position within the acoustic scene or within the acoustic scene is freely moved in the acoustic space, so that a sound engineer can immediately receive an automatic acoustic feedback, whether the individual microphones are wired correctly or whether they work properly. For example, the functionality of each individual microphone can be checked without having to hide all of the other microphones if the virtual listening position is brought close to the position of one of the real microphones, so that its share of the provided sound signal dominates. This in turn allows control of the source or audio signal recorded by the respective microphone.

Ferner können es Ausführungsbeispiele der Erfindung eventuell ermöglichen, sogar beim Auftreten eines Fehlers während einer Liveaufnahme durch schnelles Identifizieren des Fehlers so schnell eingreifen und den Fehler beheben zu können, beispielsweise durch den Tausch eines Mikrofons oder eines Kabels, dass wenigstens große Teile des Konzerts noch fehlerfrei mitgeschnitten werden können.Further, embodiments of the invention may eventually enable even when an error occurs during live recording by quickly identifying the error intervene so quickly and fix the error can, for example, by replacing a microphone or a cable that at least large parts of the concert can still be recorded correctly.

Ferner ist es gemäß den Ausführungsbeispielen der vorliegenden Erfindung möglicherweise nicht mehr erforderlich, die Position einer Vielzahl von Mikrofonen, die zur Aufnahme einer akustischen Szene verwendet werden, unabhängig von den Quellsignalen aufzuzeichnen bzw. zu skizzieren, um im Nachhinein die räumliche Anordnung der aufzeichnenden Mikrofone bei der Abmischung des die akustische Szene repräsentierenden Signals nachzubilden. Vielmehr können gemäß einigen Ausführungsbeispielen die vorbekannten Positionen der die Quellsignale aufzeichnenden Mikrofone innerhalb des akustischen Raumes als Steuerparameter bzw. Eigenschaft von einzelnen Kanalzügen in einem Audiomischpult direkt berücksichtigt und zusammen mit dem Quellsignal konserviert bzw. aufgezeichnet werden.Further, according to the embodiments of the present invention, it may not be necessary to record the position of a plurality of microphones used for recording an acoustic scene independently of the source signals, to subsequently add the spatial arrangement of the recording microphones imitate the mix of the signal representing the acoustic scene. Rather, according to some embodiments, the previously known positions of the microphones recording the source signals within the acoustic space can be directly taken into account as control parameters or characteristics of individual channel strips in an audio mixing console and preserved or recorded together with the source signal.

Einige Ausführungsbeispiele der vorliegenden Erfindung sind ein Mischpult zum Verarbeiten zumindest eines ersten und eines zweiten Quellsignals und zum Bereitstellen eines abgemischten Tonsignals, wobei das Mischpult einen Tonsignalerzeuger zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als das erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als das zweite Quellsignal aufgezeichnet wird, wobei der Tonsignalerzeuger umfasst: eine Eingangsschnittstelle, die ausgebildet ist, um das von dem ersten Mikrofon aufgenommene erste Quellsignal und das von dem zweiten Mikrofon aufgenommene zweite Quellsignal zu empfangen; einem Geometrieprozessor, der ausgebildet ist, um basierend auf der ersten Position und der virtuellen Abhörposition eine erste Geometrieinformation und um basierend auf der zweiten Position und der virtuellen Abhörposition eine zweite Geometrieinformation zu bestimmen; und einem Signalerzeuger zum Bereitstellen des Tonsignales, wobei der Signalerzeuger ausgebildet ist, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel zu kombinieren. Dies kann es einem Bediener eines Mischpultes ermöglichen, eine Kontrolle beispielsweise der Mikrofonverkabelung vor einer Aufnahme einfach, effizient und ohne hohe Fehlerwahrscheinlichkeit durchzuführen.Some embodiments of the present invention are a mixer for processing at least a first and a second source signal and providing a mixed audio signal, the mixer comprising a tone signal generator for providing a sound signal for a virtual listening position within a room in which an acoustic scene of at least a first The microphone is recorded at a first known location within the room as the first source signal and from at least one second microphone at a second known location within the room as the second source signal, the audio signal generator comprising: an input interface adapted to receive the one of the second source signal receiving the first microphone recorded first source signal and received by the second microphone second source signal; a geometry processor configured to determine first geometry information based on the first position and the virtual listening position, and determine second geometry information based on the second position and the virtual listening position; and a signal generator for providing the sound signal, wherein the signal generator is configured to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information. This may allow an operator of a mixing console to easily, efficiently, and without a high probability of error, control the microphone cabling prior to recording, for example.

Gemäß einigen Ausführungsbeispielen weist das Mischpult ferner eine Benutzerschnittstelle auf, die ausgebildet ist, um eine grafische Repräsentation der Positionen einer Mehrzahl von Mikrofonen sowie eine oder mehrere virtuelle Abhörposition anzuzeigen. Das heißt, einige Ausführungsbeispiele von Mischpulten erlauben es darüber hinaus, ein Abbild der geometrischen Verhältnisse bei der Aufzeichnung der akustischen Szene grafisch darzustellen, was einem Toningenieur auf einfache und intuitive Art und Weise ermöglichen kann, eine räumliche Abmischung zu erstellen bzw. ein Mikrofon-Setup zur Aufnahme einer komplexen akustischen Szene zu kontrollieren oder aufzubauen bzw. zu justieren.In accordance with some embodiments, the mixer further includes a user interface configured to display a graphical representation of the locations of a plurality of microphones as well as one or more virtual listening positions. That is, some embodiments of mixing consoles also allow a graphical representation of the geometric relationships in the recording of the acoustic scene, which can enable a sound engineer in a simple and intuitive way to create a spatial mix or a microphone setup to control or build up or adjust for recording a complex acoustic scene.

Gemäß einigen weiteren Ausführungsbeispielen umfasst ein Mischpult zusätzlich eine Eingabeeinrichtung, die ausgebildet ist, um zumindest die virtuelle Abhörposition einzugeben bzw. zu verändern, insbesondere durch direkte Interaktion bzw. Beeinflussung der grafischen Repräsentation der virtuellen Abhörposition. Dies ermöglicht es auf besonders intuitive Art und Weise, eine Kontrolle einzelner Abhörpositionen bzw. von mit diesen Positionen assoziierten Mikrofonen durchzuführen, indem beispielsweise die virtuelle Abhörposition innerhalb der akustischen Szene bzw. des akustischen Raumes mit der Maus oder mittels des Fingers und eines berührungsempfindlichen Bildschirmes (Touchscreen) an den gerade interessierenden Ort verschoben werden kann.According to some further embodiments, a mixing console additionally comprises an input device which is designed to input or change at least the virtual listening position, in particular by direct interaction or influencing of the graphical representation of the virtual listening position. This makes it possible in a particularly intuitive manner to carry out a control of individual listening positions or of microphones associated with these positions, for example by using the virtual monitoring position within the acoustic scene or the acoustic space with the mouse or by means of the finger and a touch-sensitive screen (FIG. Touchscreen) can be moved to the place of interest.

Einige weitere Ausführungsbeispiele von Mischpulten erlauben es darüber hinaus, über die Eingabeschnittstelle jedes der Mikrofone als zu einem bestimmten von mehreren unterschiedlichen Mikrofon-Typen gehörend zu charakterisieren. Insbesondere kann ein Mikrofon-Typ zu Mikrofonen korrespondieren, die aufgrund ihrer geometrischen Relativposition bezüglich den Objekten bzw. Schallquellen der aufzunehmenden akustischen Szene überwiegend einen direkten Schallanteil aufzeichnen. Ein zweiter Mikrofontyp kann aus demselben Grund primär einen diffusen Schallanteil aufnehmende Mikrofone kennzeichnen. Die Möglichkeit der Zuordnung der einzelnen Mikrofone zu unterschiedlichen Typen kann dazu beispielsweise dazu dienen, die Quellsignale, die von den unterschiedlichen Typen aufgezeichnet werden, mit sich jeweils unterscheidenden Kombinationsregeln miteinander zu kombinieren, um das Tonsignal für die virtuelle Abhörposition zu erhalten.Some other mixer embodiments also allow to characterize each of the microphones as belonging to a particular one of several different microphone types via the input interface. In particular, a microphone type can correspond to microphones which predominantly record a direct sound component due to their geometric relative position with respect to the objects or sound sources of the acoustic scene to be recorded. A second type of microphone may for the same reason primarily identify a diffuse sound-absorbing microphone. The possibility of assigning the individual microphones to different types can serve, for example, to combine the source signals, which are recorded by the different types, with respectively different combination rules in order to obtain the sound signal for the virtual listening position.

Dies kann gemäß einigen Ausführungsbeispielen insbesondere dafür verwendet werden, unterschiedliche Kombinations- bzw. Superpositionsregeln für Mikrofone, die überwiegend diffusen Schall aufzeichnen und für solche Mikrofone, die überwiegend Direktschall aufzeichnen, zu verwenden, um zu einem natürlichen Klangeindruck bzw. zu einem Signal zu gelangen, das für die gegebene Anforderung vorteilhafte Eigenschaften aufweist. Gemäß einigen Ausführungsbeispielen, bei denen das Tonsignal unter Bilden einer gewichteten Summe von zumindest einem ersten und einem zweiten Quellsignal erzeugt wird, werden beispielsweise die Gewichte für die unterschiedlichen Mikrofontypen unterschiedlich bestimmt. Beispielsweise kann so bei Mikrofonen, die überwiegend Direktschall aufzeichnen, ein der Realität entsprechender Abfall der Lautstärke mit zunehmendem Abstand von dem Mikrofon über einen geeignet gewählten Gewichtsfaktor implementiert werden. Gemäß einigen Ausführungsbeispielen ist das Gewicht proportional zu dem Inversen einer Potenz des Abstands des Mikrofons zu der virtuellen Abhörposition. Gemäß einigen Ausführungsbeispielen ist das Gewicht proportional zu dem Inversen des Abstands, was zu der Schallausbreitung einer idealisierten punktförmigen Schallquelle korrespondiert. Gemäß einigen Ausführungsbeispielen sind für Mikrofone, die dem ersten Mikrofon-Typ, also der Aufzeichnung von Direktschall, zugeordnet sind, die Gewichtsfaktoren proportional zu dem mit einem Nahfeldradius multiplizierten Inversen des Abstands des Mikrofons zu der virtuellen Abhörposition. Dies kann zu einer verbesserten Wahrnehmung des Tonsignales führen, indem der angenommene Einfluss eines Nahfeldradius berücksichtigt wird, innerhalb dessen eine konstante Lautstärke des Quellsignals angenommen wird.This may, according to some embodiments, be used in particular for different combination or superposition rules for microphones, which are predominantly To record diffuse sound and use for those microphones that record predominantly direct sound, in order to arrive at a natural sound impression or a signal that has advantageous properties for the given requirement. For example, in some embodiments where the audio signal is generated to form a weighted sum of at least a first and a second source signal, the weights for the different microphone types are determined differently. For example, in microphones that predominantly record direct sound, a drop in volume corresponding to the reality can be implemented with increasing distance from the microphone via a suitably chosen weighting factor. In some embodiments, the weight is proportional to the inverse of a power of the distance of the microphone to the virtual listening position. According to some embodiments, the weight is proportional to the inverse of the distance, which corresponds to the sound propagation of an idealized point sound source. According to some embodiments, for microphones that are associated with the first type of microphone, that is the recording of direct sound, the weighting factors are proportional to the near field radius multiplied inverse of the distance of the microphone to the virtual listening position. This can lead to an improved perception of the sound signal by taking into account the assumed influence of a near field radius, within which a constant volume of the source signal is assumed.

Gemäß einigen Ausführungsbeispielen der Erfindung wird auch für Mikrofone, die einem zweiten Mikrofon-Typ zugeordnet sind und mittels denen überwiegend diffuse Schallanteile aufgezeichnet werden, das Tonsignal aus den aufgenommenen Quellsignalen x1 und x2 mittels Bilden einer gewichteten Summe erzeugt, wobei die Gewichte g1 und g2 von den Relativpositionen der Mikrofone abhängen und gleichzeitig eine zusätzliche Randbedingung erfüllen. Insbesondere ist gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung die Summe der Gewichte G = g1 + g2 oder eine quadratische Summe der Gewichte G2 = g1 2 + g2 2 konstant und insbesondere eins. Dies kann zu einer Kombination der Quellsignale führen, bei der eine Lautstärke des erzeugten Tonsignals für unterschiedliche Relativpositionen zwischen den Mikrofonen zumindest näherungsweise einer Lautstärke eines jeden der Quellsignale entspricht, was wiederum zu einer guten Wahrnehmungsqualität des erzeugten Tonsignales führen kann, da die diffusen Signalanteile innerhalb eines akustischen Raumes näherungsweise identische Lautstärke aufweisen.According to some embodiments of the invention, for microphones which are assigned to a second microphone type and by means of which predominantly diffuse sound components are recorded, the sound signal is generated from the recorded source signals x 1 and x 2 by forming a weighted sum, the weights g 1 and g 2 depend on the relative positions of the microphones and at the same time fulfill an additional boundary condition. In particular, according to some embodiments of the present invention, the sum of the weights G = g 1 + g 2 or a quadratic sum of the weights G2 = g 1 2 + g 2 2 is constant and in particular one. This can lead to a combination of the source signals in which a volume of the generated sound signal for different relative positions between the microphones at least approximately corresponds to a volume of each of the source signals, which in turn can lead to a good perceptual quality of the generated audio signal, since the diffuse signal components within a acoustic volume have approximately identical volume.

Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung wird aus den Quellsignalen zunächst mittels zweier gewichteter Summen mit unterschiedlichen Gewichten ein erstes Zwischensignal und ein zweites Zwischensignal gebildet. Aus dem ersten und zweiten Zwischensignal wird dann mittels einer weiteren gewichteten Summe das Tonsignal bestimmt, wobei die Gewichte von einem Korrelations-Koeffizienten zwischen dem ersten und dem zweiten Quellsignal abhängig sind. Dies kann es ermöglichen, abhängig von der Ähnlichkeit der beiden aufgezeichneten Quellsignale Kombinationsregeln bzw. Panning-Verfahren derart gewichtet miteinander zu kombinieren, dass Lautstärkeüberhöhungen, wie sie abhängig vom gewählten Verfahren und den zu kombinierenden Signalen prinzipiell auftreten können, weiter verringert werden. Dies kann möglicherweise dazu führen, dass eine Gesamtlautstärke des erzeugten Tonsignals unabhängig von den kombinierten Signalformen näherungsweise konstant bleibt, sodass der vermittelte räumliche Eindruck auch weitestgehend ohne ein a-priori Wissen über das Quellsignal dem Gewünschten entspricht.According to some embodiments of the present invention, first of all a first intermediate signal and a second intermediate signal are formed from the source signals by means of two weighted sums of different weights. From the first and second intermediate signal, the sound signal is then determined by means of a further weighted sum, wherein the weights are dependent on a correlation coefficient between the first and the second source signal. This can make it possible, depending on the similarity of the two recorded source signals, to combine combination rules or panning methods in such a weighted manner that volume increases, as may occur in principle depending on the selected method and the signals to be combined, are further reduced. This may possibly lead to an overall volume of the generated sound signal remaining approximately constant independently of the combined signal forms, so that the mediated spatial impression also largely corresponds to what is desired without a priori knowledge of the source signal.

Gemäß einigen weiteren Ausführungsbeispielen werden in Bereichen, in denen die virtuelle Abhörposition von drei jeweils ein Quellsignal aufzeichnenden Mikrofonen umgeben ist, die Tonsignale, insbesondere, was deren diffuse Schallanteile angeht, unter Verwendung der drei Quellsignale gebildet. Das Bereitstellen des Tonsignals umfasst dabei das Erzeugen einer gewichteten Summe der drei aufgezeichneten Quellsignale. Die den Quellsignalen zugeordneten Mikrofone bilden ein Dreieck, wobei die Gewichte für ein Quellsignal basierend auf einer senkrechten Projektion der virtuellen Abhörposition auf diejenige Höhe des Dreiecks, die durch die Position des betreffenden Mikrofone verläuft, bestimmt werden. Dabei können unterschiedliche Verfahren zum Bestimmen der Gewichte verwenden werden. Dennoch kann die Lautstärke näherungsweise unverändert bleiben, auch wenn drei statt nur zwei Quellsignale kombiniert werden, was zu einer klanglich realistischeren Wiedergabe des Schallfeldes an der virtuellen Abhörposition beitragen kann.According to some further embodiments, in areas in which the virtual listening position is surrounded by three microphones each recording a source signal, the sound signals, in particular as regards their diffuse sound components, are formed using the three source signals. The provision of the audio signal comprises generating a weighted sum of the three recorded source signals. The microphones associated with the source signals form a triangle, the weights for a source signal being determined based on a perpendicular projection of the virtual listening position to the height of the triangle passing through the position of the respective microphone. Different methods of determining the weights may be used. Nevertheless, the volume can remain approximately unchanged, even if three instead of only two source signals are combined, which can contribute to a more sonically realistic reproduction of the sound field at the virtual listening position.

Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung werden entweder das erste oder das zweite Quellsignal vor der Kombination der beiden Quellsignale um eine Verzögerungszeit verzögert, wenn ein Vergleich der ersten Geometrieinformation und der zweiten Geometrieinformation ein vorbestimmtes Kriterium erfüllt, insbesondere wenn die beiden Abstände weniger als einen zulässigen Minimalabstand voneinander abweichen. Dies kann es ermöglichen, die Tonsignale zu erzeugen, ohne dass Klangverfärbungen entstehen, die möglicherweise durch die Superposition eines Signals, das in geringem räumlichen Abstand zueinander aufgezeichnet wurde, erzeugt werden könnten. Gemäß einigen Ausführungsbeispielen wird insbesondere auf effiziente Art und Weise jedes der verwendeten Quellsignale derart verzögert, dass seine Laufzeit bzw. Latenz der maximalen Signallaufzeit vom Ort aller beteiligten Mikrofone zur virtuellen Abhörposition entspricht, sodass destruktive Interferenzen ähnlicher oder identischer Signale durch eine erzwungene identische Signallaufzeit vermieden werden können.According to some embodiments of the present invention, either the first or the second source signal is delayed by a delay time prior to combining the two source signals if a comparison of the first geometry information and the second geometry information satisfies a predetermined criterion, especially if the two distances are less than a minimum allowable distance differ from each other. This can make it possible to produce the sound signals without causing color discoloration, possibly due to the superposition of a signal in a small spatial Distance from each other was recorded, could be generated. More particularly, in some embodiments, each of the source signals used is efficiently decelerated such that its propagation time or latency corresponds to the maximum signal propagation time from the location of all participating microphones to the virtual listening position such that destructive interference of similar or identical signals is avoided by a forced identical signal propagation time can.

Gemäß einigen weiteren Ausführungsbeispielen werden bei der Superposition bzw. gewichteten Summation der Quellsignale ferner Richtungsabhängigkeiten berücksichtigt, das heißt, der virtuellen Abhörposition kann eine Vorzugsrichtung und eine bezüglich der Vorzugsrichtung angegebene Richtcharakteristik zugeordnet werden. Dies kann es ermöglichen, beim Erzeugen des Tonsignals eine realitätsnahe Wirkung zu erzielen, indem zusätzlich eine bekannte Richtcharakteristik, beispielsweise eines realen Mikrofons oder des menschlichen Gehörs berücksichtigt wird.According to some further embodiments, directional dependencies are also taken into account in the superposition or weighted summation of the source signals, that is, the virtual listening position can be assigned a preferred direction and a directional characteristic specified with respect to the preferred direction. This can make it possible to achieve a realistic effect when generating the sound signal by additionally taking into account a known directional characteristic, for example of a real microphone or of the human ear.

Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend bezugnehmend auf die beiliegenden Figuren näher erläutert. Es zeigen:

Figur 1:
Ein Ausführungsbeispiel eines Tonsignalerzeugers;
Figur 2:
Eine Illustration einer akustischen Szene, deren Quellsignale mit Ausführungsbeispielen von Tonsignalerzeugern verarbeitet werden;
Figur 3:
Ein Beispiel für eine Kombinationsregel zum Erzeugen eines Tonsignals gemäß einigen Ausführungsbeispielen der Erfindung;
Figur 4:
Eine Illustration zur Verdeutlichung eines weiteren Beispiels einer möglichen Kombinationsregel;
Figur 5:
Eine grafische Illustration einer Kombinationsregel zur Verwendung mit drei Quellsignalen;
Figur 6:
Eine Illustration einer weiteren Kombinationsregel;
Figur 7:
Eine Illustration einer richtungsabhängigen Kombinationsregel;
Figur 8:
Eine schematische Darstellung eines Ausführungsbeispiels eines Mischpults;
Figur 9:
Eine schematische Darstellung eines Ausführungsbeispiels eines Verfahrens zum Erzeugen eines Tonsignals; und
Figur 10:
Eine schematische Darstellung eines Ausführungsbeispiels einer Benutzerschnittstelle.
Embodiments of the present invention will be explained below with reference to the accompanying figures. Show it:
FIG. 1:
An embodiment of a tone signal generator;
FIG. 2:
An illustration of an acoustic scene whose source signals are processed with embodiments of audio signal generators;
FIG. 3:
An example of a combination rule for generating a sound signal according to some embodiments of the invention;
FIG. 4:
An illustration to illustrate another example of a possible combination rule;
FIG. 5:
A graphical illustration of a combination rule for use with three source signals;
FIG. 6:
An illustration of another combination rule;
FIG. 7:
An illustration of a directional combination rule;
FIG. 8:
A schematic representation of an embodiment of a mixing console;
FIG. 9:
A schematic representation of an embodiment of a method for generating a sound signal; and
FIG. 10:
A schematic representation of an embodiment of a user interface.

Verschiedene Ausführungsbeispiele werden nun ausführlicher unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben, in denen einige Ausführungsbeispiele dargestellt sind. In den Figuren können die Dickenabmessungen von Linien, Schichten und/oder Regionen um der Deutlichkeit Willen übertrieben dargestellt sein.Various embodiments will now be described in more detail with reference to the accompanying drawings, in which some embodiments are illustrated. In the figures, the thickness dimensions of lines, layers and / or regions may be exaggerated for the sake of clarity.

Bei der nachfolgenden Beschreibung der beigefügten Figuren, die lediglich einige exemplarische Ausführungsbeispiele zeigen, können gleiche Bezugszeichen gleiche oder vergleichbare Komponenten bezeichnen. Ferner können zusammenfassende Bezugszeichen für Komponenten und Objekte verwendet werden, die mehrfach in einem Ausführungsbeispiel oder in einer Zeichnung auftreten, jedoch hinsichtlich eines oder mehrerer Merkmale gemeinsam beschrieben werden. Komponenten oder Objekte, die mit gleichen oder zusammenfassenden Bezugszeichen beschrieben werden, können hinsichtlich einzelner, mehrerer oder aller Merkmale, beispielsweise ihrer Dimensionierungen, gleich, jedoch gegebenenfalls auch unterschiedlich ausgeführt sein, sofern sich aus der Beschreibung nicht etwas anderes explizit oder implizit ergibt.In the following description of the attached figures, which show only some exemplary embodiments, like reference characters may designate the same or similar components. Further, summary reference numerals may be used for components and objects that occur multiple times in one embodiment or in a drawing but are described together in terms of one or more features. Components or objects which are described by the same or by the same reference numerals may be the same, but possibly also different, in terms of individual, several or all features, for example their dimensions, unless otherwise explicitly or implicitly stated in the description.

Obwohl Ausführungsbeispiele auf verschiedene Weise modifiziert und abgeändert werden können, sind Ausführungsbeispiele in den Figuren als Beispiele dargestellt und werden hierin ausführlich beschrieben. Es sei jedoch klargestellt, dass nicht beabsichtigt ist, Ausführungsbeispiele auf die jeweils offenbarten Formen zu beschränken, sondern dass Ausführungsbeispiele vielmehr sämtliche funktionale und/oder strukturelle Modifikationen, Äquivalente und Alternativen, die im Bereich der Erfindung liegen, abdecken sollen. Gleiche Bezugszeichen bezeichnen in der gesamten Figurenbeschreibung gleiche oder ähnliche Elemente.Although embodiments may be modified and changed in various ways, exemplary embodiments are illustrated in the figures as examples and will be described in detail herein. It should be understood, however, that it is not intended to limit embodiments to the particular forms disclosed, but that embodiments are intended to cover all functional and / or structural modifications, equivalents and alternatives that are within the scope of the invention. Like reference numerals designate like or similar elements throughout the description of the figures.

Man beachte, dass ein Element, das als mit einem anderen Element "verbunden" oder "verkoppelt" bezeichnet wird, mit dem anderen Element direkt verbunden oder verkoppelt sein kann oder dass dazwischenliegende Elemente vorhanden sein können. Wenn ein Element dagegen als "direkt verbunden" oder "direkt verkoppelt" mit einem anderen Element bezeichnet wird, sind keine dazwischenliegenden Elemente vorhanden. Andere Begriffe, die verwendet werden, um die Beziehung zwischen Elementen zu beschreiben, sollten auf ähnliche Weise interpretiert werden (z.B., "zwischen" gegenüber "direkt dazwischen", "angrenzend" gegenüber "direkt angrenzend" usw.).Note that an element referred to as being "connected" or "coupled" to another element may be directly connected or coupled to the other element, or intervening elements may be present. Conversely, when an element is referred to as being "directly connected" or "directly coupled" to another element, there are no intervening elements. Other terms used to describe the relationship between elements should be similar Be interpreted (eg, "between" versus "directly in between", "adjacent" to "directly adjacent", etc.).

Die Terminologie, die hierin verwendet wird, dient nur der Beschreibung bestimmter Ausführungsbeispiele und soll die Ausführungsbeispiele nicht beschränken. Wie hierin verwendet, sollen die Singularformen "einer," "eine", "eines" und "der, die, das" auch die Pluralformen beinhalten, solange der Kontext nicht eindeutig etwas anderes angibt. Ferner sei klargestellt, dass die Ausdrücke wie z.B. "beinhaltet", "beinhaltend", aufweist" und/oder "aufweisend", wie hierin verwendet, das Vorhandensein von genannten Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen und/oder Komponenten angeben, aber das Vorhandensein oder die Hinzufügung von einem bzw. einer oder mehreren Merkmalen, ganzen Zahlen, Schritten, Arbeitsabläufen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the embodiments. As used herein, the singular forms "a," "a," "an," and "the" are also meant to include the plural forms unless the context clearly indicates otherwise. Furthermore, it should be understood that the terms such as e.g. "including," "including," "having," and / or "having," as used herein, indicates the presence of said features, integers, steps, operations, elements, and / or components, but the presence or addition of a resp one or more features, integers, steps, operations, elements, components, and / or groups thereof.

Solange nichts anderes definiert ist, haben sämtliche hierin verwendeten Begriffe (einschließlich von technischen und wissenschaftlichen Begriffen) die gleiche Bedeutung, die ihnen ein Durchschnittsfachmann auf dem Gebiet, zu dem die Ausführungsbeispiele gehören, beimisst. Ferner sei klargestellt, dass Ausdrücke, z.B. diejenigen, die in allgemein verwendeten Wörterbüchern definiert sind, so zu interpretieren sind, als hätten sie die Bedeutung, die mit ihrer Bedeutung im Kontext der einschlägigen Technik konsistent ist, und nicht in einem idealisierten oder übermäßig formalen Sinn zu interpretieren sind, solange dies hierin nicht ausdrücklich definiert ist.Unless defined otherwise, all terms (including technical and scientific terms) used herein have the same meaning as commonly assigned to one of ordinary skill in the art to which the embodiments pertain. Further, it should be understood that terms, e.g. those that are defined in commonly used dictionaries are to be interpreted as having the meaning consistent with their meaning in the context of the relevant art, and not to be interpreted in an idealized or overly formal sense, unless this is so is explicitly defined.

Figur1 zeigt in schematischer Darstellung ein Ausführungsbeispiel eines Tonsignalerzeugers 100, der eine Eingangsschnittstelle 102, einen Geometrieprozessor 104 und einen Signalerzeuger 106 umfasst. Der Tonsignalerzeuger 100 dient zum Bereitstellen eines Tonsignals für eine virtuelle Abhörposition 202 innerhalb eines Raumes 200, der in Figur 1 lediglich schematisch angedeutet ist. In dem Raum 200 wird mittels zumindest eines ersten Mikrofons 204 und eines zweiten Mikrofons 206 eine akustische Szene aufgezeichnet. Die Quelle 208 der akustischen Szene ist hier lediglich schematisch als ein Gebiet innerhalb des Raumes 200 dargestellt, innerhalb dessen eine Mehrzahl von Schallquellen angeordnet sind bzw. sein können, die zu einem als akustische Szene bezeichneten Schallfeld innerhalb des Raumes 200 führen, welches wiederum mittels der Mikrofone 204 und 206 aufgezeichnet wird. Figur1 FIG. 3 shows a schematic representation of an exemplary embodiment of a tone signal generator 100 which comprises an input interface 102, a geometry processor 104 and a signal generator 106. The sound signal generator 100 serves to provide a sound signal for a virtual listening position 202 within a space 200 included in FIG. 1 is indicated only schematically. In the space 200, an acoustic scene is recorded by means of at least a first microphone 204 and a second microphone 206. The source 208 of the acoustic scene is here illustrated only schematically as an area within the space 200 within which a plurality of sound sources may be located, leading to a sound field referred to as an acoustic scene within the space 200, which in turn may be accessed by means of the Microphones 204 and 206 is recorded.

Die Eingangsschnittstelle 102 ist ausgebildet, um ein von dem ersten Mikrofon 204 aufgenommenes erstes Quellsignal 210 und ein von dem zweiten Mikrofon 206 aufgenommenes zweites Quellsignal 212 zu empfangen. Dabei können das erste und das zweite Quellsignal 210 und 212 sowohl analoge als auch digitale Signale sein, die sowohl kodiert als auch unkodiert von den Mikrofonen übermittelt werden können. Das heißt, gemäß einiger Ausführungsbeispiele können die Quellsignale 210 und 212 bereits gemäß einem Kompressionsverfahren, wie beispielsweise dem Advanced Audio Codec (AAC), MPEG 1, Layer 3 (MP3) oder dergleichen kodiert bzw. komprimiert sein.The input interface 102 is configured to receive a first source signal 210 received by the first microphone 204 and a second source signal 212 received by the second microphone 206. In this case, the first and second source signals 210 and 212 can be both analog and digital signals, which can be transmitted both encoded and uncoded by the microphones. That is, according to some embodiments, the source signals 210 and 212 may already be encoded or compressed according to a compression method such as the Advanced Audio Codec (AAC), MPEG 1, Layer 3 (MP3), or the like.

Das erste und das zweite Mikrofon 204 und 206 befinden sich an vorbekannten Positionen innerhalb des Raumes 200, die auch dem Geometrieprozessor 104 bekannt sind. Der Geometrieprozessor 104 kennt darüber hinaus die Position bzw. die Koordinaten der virtuellen Abhörposition 202 und ist ausgebildet, aus der ersten Position des ersten Mikrofons 204 und der virtuellen Abhörposition 202 eine erste Geometrieinformation 110 zu bestimmen. Der Geometrieprozessor 104 ist ferner ausgebildet, um aus der zweiten Position und der virtuellen Abhörposition 202 eine zweite Geometrieinformation 112 zu bestimmen.The first and second mics 204 and 206 are located at known locations within the space 200, which are also known to the geometry processor 104. The geometry processor 104 also knows the position or the coordinates of the virtual listening position 202 and is designed to determine first geometry information 110 from the first position of the first microphone 204 and the virtual listening position 202. The geometry processor 104 is further configured to determine second geometry information 112 from the second position and the virtual listening position 202.

Ein Beispiel für eine derartige Geometrieinformation ist, ohne Anspruch auf Vollständigkeit zu erheben, einen Abstand zwischen der ersten Position und der virtuellen Abhörposition 202 oder eine relative Orientierung zwischen einer Vorzugsrichtung, die der virtuellen Abhörposition 202 zugeordnet ist und einer Position eines der Mikrofone 204 oder 206. Selbstverständlich kann die Geometrie auf beliebige Art und Weise beschrieben sein, beispielsweise mittels kartesischen Koordinaten, sphärischen Koordinaten oder Zylinderkoordinaten in einem ein-, zwei- oder dreidimensionalen Raum. Mit anderen Worten kann die erste Geometrieinformation einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition und die zweite Geometrieinformation einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition umfassenden.An example of such geometry information is, without being exhaustive, a distance between the first position and the virtual listening position 202 or a relative orientation between a preferred direction associated with the virtual listening position 202 and a position of one of the microphones 204 or 206 Of course, the geometry may be described in any manner, for example by means of Cartesian coordinates, spherical coordinates or cylindrical coordinates in a one-, two- or three-dimensional space. In other words, the first geometry information may include a first distance between the first known position and the virtual listening position and the second geometry information comprises a second distance between the second known position and the virtual listening position.

Der Signalerzeuger ist ausgebildet, um das Tonsignal unter Kombination des ersten Quellsignals 210 und des zweiten Quellsignals 212 bereitzustellen, wobei die Kombination einer Kombinationsregel folgt, gemäß der sowohl die erste Geometrieinformation 110 als auch die zweite Geometrieinformation 112 berücksichtigt bzw. verwendet werden.The signal generator is configured to provide the audio signal combining the first source signal 210 and the second source signal 212, the combination following a combination rule according to which both the first geometry information 110 and the second geometry information 112 are considered.

Das Tonsignal 120 wird also aus dem ersten und dem zweiten Quellsignal 210 und 212 gewonnen, wobei dabei die erste und die zweite Geometrieinformation 110 bzw. 112 verwendet werden. Das heißt, Informationen über die geometrischen Eigenschaften bzw. Beziehungen zwischen der virtuellen Abhörposition 12 und den Positionen der Mikrofone 204 und 206 werden unmittelbar zur Bestimmung des Tonsignales 120 verwendet.The sound signal 120 is thus obtained from the first and the second source signals 210 and 212, in which case the first and the second geometry information 110 and 112 are used. That is, information about the geometric characteristics or relationships between the virtual listening position 12 and the positions of the microphones 204 and 206 are used directly to determine the sound signal 120.

Durch Variation der virtuellen Abhörposition 202 kann so möglicherweise auf einfache und intuitive Art und Weise ein Tonsignal erhalten werden, das eine Kontrolle einer Funktionalität der in der Nähe der virtuellen Abhörposition 202 angeordneten Mikrofone ermöglicht, ohne dass beispielsweise die Vielzahl der Mikrofone innerhalb eines Orchesters einzeln über die diesen jeweils zugeordneten Kanäle eines Mischpults abgehört werden müssen.By varying the virtual listening position 202, a sound signal may thus possibly be obtained in a simple and intuitive manner, which makes it possible to control a functionality of the microphones arranged in the vicinity of the virtual monitoring position 202 without, for example, individually transferring the multiplicity of microphones within an orchestra must be listened to these each assigned channels of a mixer.

Gemäß den Ausführungsbeispielen, bei denen die erste Geometrieinformation und die zweite Geometrieinformation als zumindest eine Information den ersten Abstand d1 zwischen der virtuellen Abhörposition 202 und der ersten Position und d2 zwischen der virtuellen Abhörposition 202 und der zweiten Position umfasst, wird zum Erzeugen des Tonsignals 120 unter anderem eine gewichtete Summe des ersten Quellsignals 210 und des zweiten Quellsignals 212 erzeugt.According to the embodiments in which the first geometry information and the second geometry information comprise as at least one information the first distance d 1 between the virtual listening position 202 and the first position and d 2 between the virtual listening position 202 and the second position, the sound signal is generated 120 generates, among other things, a weighted sum of the first source signal 210 and the second source signal 212.

Wenngleich in Figur 1 der Einfachheit halber und zum besseren Verständnis lediglich zwei Mikrofone 204 und 206 dargestellt sind, versteht es sich von selbst, dass gemäß weiteren Ausführungsbeispielen der vorliegenden Erfindung von einem Tonsignalerzeuger 100 eine beliebige Anzahl von Mikrofonen der in Figur 1 schematisch dargestellten Art verwendet werden können, um für eine virtuelle Abhörposition ein Tonsignal zu erzeugen, wie hier und anhand der nachfolgenden Ausführungsbeispiele noch erläutert werden wird.Although in FIG. 1 For the sake of simplicity and for better understanding only two microphones 204 and 206 are shown, it goes without saying that according to further embodiments of the present invention of a Tonsignalalerer 100 any number of microphones of in FIG. 1 schematically illustrated type can be used to generate a sound signal for a virtual listening position, as will be explained here and with reference to the following embodiments.

Das heißt, gemäß einigen Ausführungsbeispielen wird das Tonsignal x aus einer Linearkombination des ersten Quellsignals 210 (x1) und des zweiten Quellsignals 212 (x2) erzeugt, wobei das erste Quellsignal x1 mit einem ersten Gewicht g1 und das zweite Quellsignal x2 mit einem zweiten Gewicht g2 gewichtet werden, sodass gilt: x = g 1 * x 1 + g 2 * x 2 .

Figure imgb0001
That is, according to some embodiments, the audio signal x is generated from a linear combination of the first source signal 210 (x 1 ) and the second source signal 212 (x 2 ), the first source signal x 1 having a first weight g 1 and the second source signal x 2 weighted with a second weight g 2 , so that: x = G 1 * x 1 + G 2 * x 2 ,
Figure imgb0001

Gemäß weiteren Ausführungsbeispielen können, wie bereits erwähnt, weitere Quellsignale x3, ..., xn mit dazugehörigen Gewichten g3, ..., gn zusätzlich berücksichtigt werden. Selbstverständlich sind Tonsignale zeitabhängig, wobei vorliegend aus Gründen der Übersichtlichkeit teilweise auf den expliziten Hinweis auf die Zeitabhängigkeit verzichtet wird und Angaben von Ton- oder Quellsignalen x synonym mit der Angabe x(t) zu verstehen sind.According to further embodiments, as already mentioned, further source signals x 3 ,..., X n with associated weights g 3 ,..., G n may additionally be taken into account. Of course, sound signals are time-dependent, in the present case for reasons of clarity In some cases, the explicit reference to the time dependence is dispensed with and indications of sound or source signals x are to be understood synonymously with the specification x (t).

Figur 2 zeigt schematisch den Raum 200, wobei bei der in Figur 2 gewählten Darstellung angenommen wird, dieser werde von rechtwinkligen Wänden begrenzt, die für das Zustandekommen eines diffusen Schallfeldes verantwortlich zeichnen. Ferner werde vereinfachend angenommen, dass wenngleich in der in Figur 2 dargestellten Quelle 208 innerhalb des eingegrenzten Bereiches eine oder mehrere Schallquellen angeordnet sein können, diese in Bezug auf deren Wirkung für die einzelnen Mikrofone zunächst vereinfacht als eine einzelne Quelle betrachtet werden können. Der von diesen Schallquellen ausgestrahlte Direktschall wird von den Wänden, die den Raum 200 begrenzen, mehrfach reflektiert, sodass sich ein von den Mehrfachreflexionen der bereits abgeschwächten Signale erzeugtes diffuses Schallfeld aus unkorreliert überlagerten Signalen ergibt, das zumindest näherungsweise innerhalb des gesamten Raumes eine konstante Lautstärke besitzt. Dieser überlagert ist ein direkter Schallanteil, also derjenige Schall, der von den innerhalb der Quelle 208 befindlichen Schallquellen direkt die möglichen Abhörpositionen, insbesondere also auch die Mikrofone 220 bis 232 erreicht, ohne vorher reflektiert worden zu sein. Das heißt, innerhalb des Raumes 200 kann das Schallfeld konzeptionell idealisiert in zwei Komponenten unterschieden werden, nämlich einen direkten Schallanteil, der vom Ort der Erzeugung des Schalles direkt die entsprechende Abhörposition erreicht und in einen diffusen Schallanteil, der aus einer näherungsweise unkorrelierten Überlagerung einer Vielzahl von direkt abgestrahlten und reflektierten Signalen herrührt. FIG. 2 schematically shows the space 200, wherein the in FIG. 2 is assumed to be limited by rectangular walls, which are responsible for the emergence of a diffuse sound field. Furthermore, it is assumed for the sake of simplification that, although in the FIG. 2 source 208 may be located within the confined area one or more sources of sound, they can be considered in terms of their effect for the individual microphones initially simplified as a single source. The direct sound emitted by these sound sources is multiply reflected by the walls delimiting the space 200, so that a diffuse sound field generated by the multiple reflections of the already attenuated signals results from uncorrelated superimposed signals having a constant volume at least approximately within the entire space , This superimposed is a direct sound component, ie the one sound directly from the sound sources located within the source 208 reaches the possible listening positions, in particular so the microphones 220 to 232, without having been previously reflected. That is, within the space 200, the sound field can be conceptually idealized into two components, namely a direct sound component, which directly reaches the corresponding listening position from the place of generation of the sound and a diffuse sound component, which consists of an approximately uncorrelated superimposition of a plurality of directly radiated and reflected signals.

Bei der in Figur 2 gezeigten Illustration kann aufgrund der räumlichen Nähe der Mikrofone 220 bis 224 zur Quelle 208 angenommen werden, diese zeichnen überwiegend Direktschall auf, das heißt, die Lautstärke bzw. der Schalldruck des von diesen Mikrofonen aufgenommenen Signals rührt überwiegend von einem direkten Schallanteil, der innerhalb der Quelle 208 angeordneten Schallquellen her. Demgegenüber kann beispielsweise angenommen werden, die Mikrofone 226 bis 232 zeichneten ein Signal auf, das überwiegend vom diffusen Schallanteil herrührt, da der räumliche Abstand zwischen der Quelle 208 und den Mikrofonen 226 bis 232 groß ist, sodass die Lautstärke des Direktschalls an diesen Positionen zumindest vergleichbar oder geringer als die Lautstärke des diffusen Schallfeldes ist.At the in FIG. 2 Because of the proximity of the microphones 220 to 224 to the source 208, the illustration shown may be predominantly direct sound, that is, the volume or sound pressure of the signal picked up by these microphones is predominantly due to a direct portion of sound within the source 208 arranged sound sources ago. By contrast, it may be assumed, for example, that the microphones 226-232 recorded a signal predominantly due to the diffuse sound component, since the spatial distance between the source 208 and the microphones 226-232 is large, so that the volume of the direct sound is at least comparable at these positions or less than the volume of the diffuse sound field.

Um bei der Erzeugung des Tonsignals für die virtuelle Abhörposition 202 der Reduktion der Lautstärke mit zunehmendem Abstand Rechnung zu tragen, wird gemäß einigen Ausführungsbeispielen der Erfindung ein Gewicht gn für die einzelnen Quellsignale abhängig vom Abstand zwischen der virtuellen Abhörposition 202 und den verwendeten Mikrofonen 220 bis 232 zur Aufzeichnung der Quellsignale gewählt. Figur 3 zeigt exemplarisch eine Möglichkeit zur Bestimmung eines derartigen Gewichtes bzw. eines derartigen Faktors zur Multiplikation mit dem Quellsignal, wobei hier als Beispiel das Mikrofon 222 gewählt wurde. Wie Figur 3 schematisch illustriert, wird gemäß einigen Ausführungsbeispielen das Gewicht gn proportional zu dem Inversen einer Potenz des ersten Abstandes d1 gewählt, also: g 1 1 d 1 n .

Figure imgb0002
In order to take into account the reduction of the volume as the distance increases in generating the sound signal for the virtual listening position 202, according to some embodiments of the invention, a weight g n for the individual source signals depends on the distance between the virtual listening position 202 and the microphones 220 to 232 selected for recording the source signals. FIG. 3 shows an example of a way to determine such a weight or such a factor for multiplication with the source signal, in which case microphone 222 was chosen as an example. As FIG. 3 schematically illustrates, according to some embodiments, the weight g n is chosen to be proportional to the inverse of a power of the first distance d 1 , ie: G 1 α 1 d 1 n ,
Figure imgb0002

Gemäß einigen Ausführungsbeispielen wird als Potenz n=1 gewählt, das heißt, das Gewicht bzw. der Gewichtsfaktor ist invers proportional zum Abstand d1, eine Abhängigkeit, die in etwa der Freifeldausbreitung einer punktförmigen gleichförmig abstrahlenden Schallquelle entspricht. Das heißt, gemäß einigen Ausführungsbeispielen wird angenommen, dass die Lautstärke invers proportional zum Abstand 240 ist. Gemäß einigen weiteren Ausführungsbeispielen wird zusätzlich für einige oder für alle der Mikrofone 220 bis 232 ein sogenannter Nahfeldradius 242 (r1) berücksichtigt. Der Nahfeldradius 242 korrespondiert dabei zu einem Bereich unmittelbar um eine Schallquelle, insbesondere zu dem Bereich, innerhalb dessen die Schallwelle bzw. die Schallfront gebildet wird. Innerhalb des Nahfeldradius wird der Schalldruckpegel bzw. die Lautstärke des Audiosignals als konstant angenommen. In einer einfachen Modellvorstellung mag dabei angenommen werden, dass innerhalb einer einzelnen Wellenlänge eines Audio- bzw. Tonsignals keine signifikante Dämpfung im Medium auftritt, sodass zumindest innerhalb einer einzelnen Wellenlänge (korrespondierend zum Nahfeldradius) der Schalldruck konstant ist. Daraus ergibt sich, dass der Nahfeldradius auch frequenzabhängig sein kann.According to some embodiments, n = 1 is chosen as the power, that is, the weight or the weight factor is inversely proportional to the distance d 1 , a dependency which corresponds approximately to the free-field propagation of a punctiform uniformly emitting sound source. That is, in some embodiments, it is assumed that the volume is inversely proportional to the distance 240. According to some further embodiments, a so-called near field radius 242 (r 1 ) is additionally considered for some or all of the microphones 220 to 232. The near field radius 242 corresponds to an area immediately around a sound source, in particular to the area within which the sound wave or the sound front is formed. Within the near field radius, the sound pressure level or the volume of the audio signal is assumed to be constant. In a simple model presentation, it may be assumed that no significant attenuation occurs in the medium within a single wavelength of an audio or audio signal, so that the sound pressure is constant at least within a single wavelength (corresponding to the near field radius). It follows that the near field radius can also be frequency-dependent.

Durch die analoge Verwendung des Nahfeldradius gemäß einigen Ausführungsbeispielen der Erfindung kann ein Tonsignal an der virtuellen Abhörposition 202 erzeugt werden, indem die für die Kontrolle der akustischen Szene bzw. der Konfiguration und Verkabelung der einzelnen Mikrofone relevanten Größen besonders deutlich gewichtet werden, wenn sich die virtuelle Abhörposition 202 einer der realen Positionen der Mikrofone 220 bis 232 nähert. Wenngleich gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung für den Nahfeldradius r eine frequenzunabhängige Größe angenommen wird, kann gemäß einigen weiteren Ausführungsbeispielen eine Frequenzabhängigkeit des Nahfeldradius implementiert sein. Gemäß einigen Ausführungsbeispielen wird also zur Erzeugung des Tonsignals angenommen, innerhalb eines Nahfeldradius r um eines der Mikrofone 220 bis 232 sei die Lautstärke konstant. Gemäß einigen weiteren Ausführungsbeispielen wird, um die Berechnung des Signals zu vereinfachen und dem Einfluss eines Nahfeldradius möglicherweise dennoch Rechnung zu tragen, als allgemeine Rechenvorschrift angenommen, das Gewicht g1 sei proportional zu einem Quotienten aus dem Nahfeldradius r1 des betrachteten Mikrofons 222 und dem Abstand d1 von virtueller Abhörposition 202 und Mikrofon 222, sodass gilt: g 1 r 1 d 1 n .

Figure imgb0003
By analogous use of the near field radius according to some embodiments of the invention, a sound signal at the virtual listening position 202 can be generated by weighting the variables relevant for the control of the acoustic scene or the configuration and wiring of the individual microphones particularly clearly when the virtual Listening position 202 one of the real positions of the microphones 220 to 232 approaches. Although, according to some embodiments of the present invention, a frequency independent quantity is assumed for the near field radius r, according to some Further embodiments, a frequency dependence of the near field radius be implemented. According to some embodiments, it is thus assumed for generation of the sound signal that within a near field radius r around one of the microphones 220 to 232 the volume is constant. According to some further embodiments, to simplify the calculation of the signal and possibly still take into account the influence of a near field radius, it is assumed as general calculation rule that the weight g 1 is proportional to a quotient of the near field radius r 1 of the considered microphone 222 and the distance d 1 of virtual listening position 202 and microphone 222, so that: G 1 α r 1 d 1 n ,
Figure imgb0003

Eine solche Parametrisierung bzw. Entfernungsabhängigkeit kann sowohl den Überlegungen zum Nahfeld als auch den Überlegungen zum Fernfeld Rechnung tragen. Wie bereits oben erwähnt, schließt sich an das Nahfeld einer punktförmigen Schallquelle ein Fernfeld an, in dem sich bei Freifeldausbreitung der Schalldruck mit jeder Verdopplung der Entfernung von der Schallquelle halbiert, der Pegel sich also um jeweils 6 dB verringert. Diese Eigenschaft ist auch als Abstandsgesetz bzw. 1/r- Gesetz bekannt. Auch wenn gemäß einigen Ausführungsbeispielen der Erfindung Quellen 208 aufgenommen werden mögen, deren Schallquellen gerichtet abstrahlen, kann möglicherweise von punktförmigen Schallquellen ausgegangen werden, wenn, nicht eine realitätsgetreue Wiedergabe des Schallfeldes am Ort der virtuellen Abhörposition 202 im Vordergrund steht, sondern vielmehr die Möglichkeit, die Mikrofone bzw. die Aufnahmequalität einer komplexen akustischen Szene schnell und effizient kontrollieren bzw. durchhören zu können.Such a parameterization or distance dependence can take into account both the considerations for the near field and the considerations for the far field. As already mentioned above, the far field of a point-shaped sound source is followed by a far field, in which the sound pressure is halved with each doubling of the distance from the sound source when the field propagates freely, ie the level decreases by 6 dB in each case. This property is also known as the law of distance or 1 / r law. Although, according to some embodiments of the invention, sources 208 may be recorded whose sound sources radiate directionally, it may possibly be assumed that point-shaped sound sources, if not a realistic reproduction of the sound field at the location of the virtual listening position 202 in the foreground, but rather the possibility Microphones or the recording quality of a complex acoustic scene quickly and efficiently to control or listen to.

Wie bereits in Figur 2 angedeutet, können gemäß einigen Ausführungsbeispielen die Nahfeldradii für unterschiedliche Mikrofone unterschiedlich gewählt werden. Insbesondere kann dabei den unterschiedlichen Mikrofon-Typen Rechnung getragen werden. Als Mikrofon-Typ soll hierin eine Information verstanden werden, die, losgelöst von dem tatsächlichen Aufbau des einzelnen Mikrofons, eine Eigenschaft des Mikrofons oder dessen Verwendung beschreibt, die sich von einer identischen Eigenschaft oder Verwendung eines weiteren Mikrofons unterscheidet, das ebenfalls zur Aufnahme der Quelle 208 verwendet wird. Ein Beispiel für eine solche Unterscheidung ist die Unterscheidung zwischen Mikrofonen eines ersten Typs (Typ "D" in Figur 2), die aufgrund ihrer geometrischen Positionierung überwiegend Direktschallanteile aufnehmen und solchen Mikrofonen, die aufgrund des größeren Abstands bzw. einer anderen Relativposition bezüglich der Quelle 208 überwiegend das diffuse Schallfeld aufnehmen bzw. aufzeichnen (Mikrofone vom Typ "A" in Figur 2). Insbesondere bei einer solchen Aufteilung der Mikrofone in unterschiedliche Mikrofon-Typen kann die Verwendung von unterschiedlichen Nahfeldradii sinnvoll sein. Dabei wird gemäß einigen Ausführungsbeispielen der Nahfeldradius der Mikrofone vom Typ A größer gewählt als derjenige für die Mikrofone vom Typ D, was zu einer einfachen Möglichkeit der Kontrolle der einzelnen Mikrofone führen kann, wenn die virtuelle Abhörposition 202 in deren Nähe gesetzt wird, ohne die physikalischen Gegebenheiten bzw. den Klangeindruck grob zu verfälschen, insbesondere da das diffuse Schallfeld, wie oben dargestellt, über große Gebiete näherungsweise gleich laut ist.As already in FIG. 2 indicated, the Nahfeldradii for different microphones can be chosen differently according to some embodiments. In particular, the different microphone types can be taken into account. As a type of microphone is to be understood herein information that, detached from the actual structure of the individual microphone describes a property of the microphone or its use, which differs from an identical property or use of another microphone, which is also for receiving the source 208 is used. An example of such a distinction is the distinction between microphones of a first type (type "D" in FIG FIG. 2 ), which due to their geometric positioning predominantly record direct sound components and such microphones, due to the larger Distance or another relative position with respect to the source 208 predominantly record or record the diffuse sound field (microphones of the type "A" in FIG FIG. 2 ). In particular, in such a division of the microphones in different types of microphone, the use of different Nahfeldradii may be useful. In this case, according to some embodiments, the near-field radius of type A microphones is chosen to be greater than that for type D microphones, which may result in a simple way of controlling the individual microphones when the virtual listening position 202 is placed near them, without the physical Roughly distort conditions or the sound impression, especially since the diffuse sound field, as shown above, is approximately the same over large areas.

Allgemein gesprochen verwenden Tonsignalerzeuger 100 gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung zum Kombinieren der Quellsignale unterschiedliche Kombinationsregeln, wenn die Mikrofone, die die jeweiligen Quellsignale aufzeichnen, unterschiedlichen Mikrofon-Typen zugeordnet sind. Das heißt, eine erste Kombinationsregel wird verwendet, wenn die beiden zu kombinierenden Mikrofone einem ersten Mikrofon-Typ zugeordnet sind und eine zweite Kombinationsregel wird verwendet, wenn die beiden zu kombinierenden Mikrofone bzw. die von diesen Mikrofonen aufgezeichneten Quellsignale einem zweiten, unterschiedlichen Mikrofontyp zugeordnet sind.Generally speaking, tone signal generators 100, in accordance with some embodiments of the present invention, for combining the source signals use different combination rules when the microphones that record the respective source signals are associated with different microphone types. That is, a first combination rule is used when the two microphones to be combined are associated with a first microphone type and a second combination rule is used when the two microphones to be combined or the source signals recorded by these microphones are assigned to a second, different microphone type ,

Insbesondere können gemäß einigen Ausführungsbeispielen die Mikrofone jedes unterschiedlichen Typs zunächst vollständig voneinander getrennt verarbeitet und zu je einem Teilsignal Xvirt kombiniert werden, woraufhin in einem abschließenden Schritt vom Tonsignalerzeuger bzw. einem verwendeten Mischpult das endgültige Signal durch Kombination der vorher erzeugten Teilsignale erzeugt wird. Angewendet auf die in Figur 2 dargestellte akustische Szene bedeutete dies beispielsweise, dass zunächst ein Teilsignal xA für die virtuelle Abhörposition 202 bestimmt werden kann, welches lediglich die Mikrofone 226 bis 232 von Typ A berücksichtigt. Zeitgleich oder vorher bzw. nachher könnte ein zweites Teilsignal xD für die virtuelle Abhörposition 202 bestimmt werden, das lediglich die Mikrofone vom Typ D, also die Mikrofone 220 bis 224 berücksichtigt, diese jedoch gemäß einer anderen Kombinationsregel miteinander kombiniert. In einem abschließenden Schritt könnte dann das endgültige Tonsignal x für die virtuelle Abhörposition 202 durch Kombination dieser beiden Teilsignale erzeugt werden, insbesondere durch eine Linearkombination des ersten Teilsignals xD, das mittels der Mikrofone des ersten Typs (D) gewonnen wurde und eines zweiten Teilsignals xA, das mittels der Mikrofone des zweiten Typs (A) gewonnen wurde, sodass gilt: x = x A + x D .

Figure imgb0004
In particular, according to some embodiments, the microphones of each different type can first be processed completely separated and combined into a sub-signal X virt , whereupon in a final step by the sound signal generator or a mixer used the final signal is generated by combining the previously generated sub-signals. Applied to the in FIG. 2 For example, this means that first a partial signal x A can be determined for the virtual listening position 202, which only takes into account type A microphones 226 to 232. At the same time or before or after, a second partial signal x D could be determined for the virtual listening position 202, which takes into account only the microphones of the type D, ie the microphones 220 to 224, but combines them according to another combination rule. In a final step, the final sound signal x for the virtual listening position 202 could then be generated by combining these two sub-signals, in particular by a linear combination of the first sub-signal x D , which was obtained by means of the microphones of the first type (D) and a second partial signal x A , which was obtained by means of the microphones of the second type (A), so that: x = x A + x D ,
Figure imgb0004

Figur 4 zeigt eine der Figur 2 ähnliche schematische Ansicht einer akustischen Szene zusammen mit Positionen von Mikrofonen 220 bis 224, die Direktschall aufnehmen und eine Reihe von Mikrofonen des Typs A, von denen nachfolgend insbesondere die Mikrofone 250 bis 256 betrachtet werden sollen. Anhand dieser werden einige Möglichkeiten diskutiert, mit welchen Kombinationsregeln ein Tonsignal für die virtuelle Abhörposition 202, die in der in den Figuren 4 und 5 dargestellten Konfiguration innerhalb einer von den Mikrofonen 250 bis 254 aufgespannten dreieckigen Fläche angeordnet ist, erzeugt werden können. FIG. 4 shows one of the FIG. 2 similar schematic view of an acoustic scene together with positions of microphones 220 to 224, the direct sound record and a series of microphones of the type A, of which in particular the microphones 250 to 256 are to be considered below. On the basis of this some possibilities are discussed with which combination rules a sound signal for the virtual listening position 202, which in the in the FIGS. 4 and 5 represented configuration within a triangular area spanned by the microphones 250 to 254 can be generated.

Allgemein gesprochen kann die Interpolation der Lautstärke bzw. das Erzeugen des Tonsignals für die virtuelle Abhörposition 202 unter Berücksichtigung der Positionen der nächstliegenden Mikrofone oder unter Berücksichtigung der Positionen aller Mikrofone erfolgen. Beispielsweise kann es, unter anderem zur Reduzierung der Rechenlast, vorteilhaft sein, lediglich die nächstliegenden Mikrofone zum Erzeugen des Tonsignals an der virtuellen Abhörposition 202 zu verwenden. Diese können beispielsweise mittels einer Delaunay-Triangulation gefunden bzw. durch beliebige andere Algorithmen zur Suche der nächsten Nachbarn (Nearest-Neighbor) bestimmt werden. Einige spezielle Möglichkeiten zur Bestimmung zur Lautstärkeanpassung oder, allgemein gesprochen, zur Kombination der Quellsignale, die den Mikrofonen 250 bis 254 zugeordnet sind, werden nachfolgend, bezugnehmend insbesondere auf Figur 5, beschrieben.Generally speaking, the interpolation of the volume or the generation of the sound signal for the virtual listening position 202 can take place taking into account the positions of the nearest microphones or taking into account the positions of all microphones. For example, it can be advantageous, inter alia for reducing the computational load, to use only the closest microphones for generating the audio signal at the virtual listening position 202. These can be found, for example, by means of a Delaunay triangulation or determined by any other algorithms for searching the nearest neighbors (nearest neighbor). Some specific possibilities for determining the volume adjustment or, generally speaking, for combining the source signals associated with the microphones 250 to 254 will be discussed in more detail below with reference to FIG FIG. 5 , described.

Befände sich die virtuelle Abhörposition 202 nicht innerhalb eines der Triangulationsdreiecke, sondern außerhalb, beispielsweise an der in Figur 4 gestrichelt gezeichneten weiteren virtuellen Abhörposition 260, stünden zur Interpolation des Signals bzw. zur Kombination eines Tonsignals aus den Quellsignalen der Mikrofone lediglich zwei Quellsignale der nächsten Nachbarn zur Verfügung. Der Einfachheit halber wird im Folgenden die Möglichkeit der Kombination von zwei Quellsignalen ebenfalls anhand von Figur 5 diskutiert, wobei bei der Interpolation aus zwei Quellsignalen das Quellsignal des Mikrofons 250 zunächst vernachlässigt wird.If the virtual listening position 202 were not within one of the triangulation triangles, but outside, for example, at the in FIG. 4 dashed drawn further virtual listening position 260 would be available for interpolation of the signal or for combining a sound signal from the source signals of the microphones only two source signals of the nearest neighbors. For the sake of simplicity, the possibility of combining two source signals will also be described below with reference to FIG FIG. 5 discussed, wherein the source signal of the microphone 250 is initially neglected in the interpolation of two source signals.

Gemäß einigen Ausführungsbeispielen der Erfindung wird das Tonsignal für die virtuelle Abhörposition 202 gemäß einer ersten Überblendregel, dem sogenannten linearen Panning-Gesetz erzeugt. Gemäß diesem Verfahren wird das Tonsignal xvirt1 unter Verwendung der folgenden Rechenvorschrift bestimmt: x virt 1 = g 1 * x 1 + 1 g 1 * x 2 , wobei g 2 = 1 g 1 .

Figure imgb0005
According to some embodiments of the invention, the audio signal for the virtual listening position 202 is generated according to a first fading rule, the so-called linear panning law. According to this method, the tone signal x virt1 is determined using the following calculation rule: x virt 1 = G 1 * x 1 + 1 - G 1 * x 2 . where g 2 = 1 - G 1 ,
Figure imgb0005

Das heißt, die Gewichte der einzelnen zu addierenden Quellsignale x1 und x2 addieren sich linear zu 1 und das Tonsignal xvirt1 wird entweder von einem der beiden Signale x1 oder x2 allein oder einer Linearkombination der beiden gebildet. Aufgrund dieses linearen Zusammenhangs weisen die so erzeugten Tonsignale für beliebige Werte von g1 bei identischen Quellsignalen eine konstante Lautstärke auf, wohingegen vollständig unterschiedliche (dekorrelierte) Quellsignale x1 und x2 zu einem Tonsignal führen, das für den Wert g1=0,5 einen Lautstärkeabfall von minus 3dB, also um den Faktor 0,5 aufweist.That is to say, the weights of the individual source signals x 1 and x 2 to be added add up to 1 linearly and the tone signal x virt1 is formed either by one of the two signals x 1 or x 2 alone or a linear combination of the two. Because of this linear relationship, the sound signals thus generated for any values of g 1 at identical source signals at a constant volume, whereas completely different (decorrelated) source signals x 1 and x 2 lead to a sound signal for the value g 1 = 0.5 a drop in volume of minus 3dB, ie by a factor of 0.5.

Eine zweite Überblendregel gemäß der das Tonsignal xvirt2 erzeugt werden kann, ist das sogenannte Sinus- und Cosinus-Gesetz: x virt 2 = cos δ * x 1 + sin δ * x 2 , wobei δ 0 ° , 90 ° .

Figure imgb0006
A second fade rule according to which the tone signal x virt2 can be generated is the so-called sine and cosine law: x virt 2 = cos δ * x 1 + sin δ * x 2 . where δ 0 ° . 90 ° ,
Figure imgb0006

Der Parameter δ der die individuellen Gewichte g1 und g2 bestimmt, reicht von 0° bis 90° und errechnet sich aus dem Abstand zwischen der virtuellen Abhörposition 202 und den Mikrofonen 252 und 254. Da sich hier die Quadrate der Gewichte für beliebige Werte von δ zu 1 summieren, kann mittels des Sinus-Cosinus-Gesetzes für jeden beliebigen Parameter δ ein Tonsignal mit konstanter Lautstärke erzeugt werden, wenn die Quellsignale dekorreliert sind. Jedoch ergibt sich bei identischen Quellsignalen für den Parameter δ = 45° eine Lautstärkeerhöhung von 3dB.
Eine dritte Überblendregel, die zu den der zweiten Überblendregel ähnlichen Ergebnissen führt, und gemäß der das Tonsignal xvirt3 erzeugt werden kann, ist das sogenannte Tangens-Gesetz: x virt 3 = g 1 * x 1 + g 2 * x 2 , wobei tan θ tan θ 0 = g 1 g 2 g 1 + g 2 und θ 0 ° ; 90 ° .

Figure imgb0007
Eine vierte Überblendregel, die verwendet werden kann, um das Tonsignal xvirt4 zu erzeugen, ist das sogenannte Sinus- Gesetz: x virt 4 = g 1 * x 1 + g 2 * x 2 , wobei sin θ sin θ 0 = g 1 g 2 g 1 + g 2 und θ 0 ° ; 90 ° .
Figure imgb0008
The parameter δ which determines the individual weights g 1 and g 2 ranges from 0 ° to 90 ° and is calculated from the distance between the virtual listening position 202 and the microphones 252 and 254. Here, the squares of the weights for arbitrary values of δ to 1, a constant-tone sound signal can be generated by means of the sine-cosine law for any parameter δ if the source signals are decorrelated. However, with identical source signals for the parameter δ = 45 °, a volume increase of 3dB results.
A third fade rule, which leads to the results similar to the second fade rule , and according to which the tone signal x virt3 can be generated, is the so-called tangent law: x virt 3 = G 1 * x 1 + G 2 * x 2 . in which tan θ tan θ 0 = G 1 - G 2 G 1 + G 2 and θ 0 ° ; 90 ° ,
Figure imgb0007
A fourth fading rule that can be used to generate the tone signal x virt4 is the so-called sine law: x virt 4 = G 1 * x 1 + G 2 * x 2 . in which sin θ sin θ 0 = G 1 - G 2 G 1 + G 2 and θ 0 ° ; 90 ° ,
Figure imgb0008

Auch hierbei addieren sich die Quadrate der Gewichte für jedweden möglichen Wert des Parameters θ zu 1. Der Parameter θ ist wiederum durch die Abstände zwischen virtueller Abhörposition 202 und den Mikrofonen bestimmt, er kann Werte von minus 45 Grad bis 45 Grad annehmen.Again, the squares of the weights add up to any one of the possible values of the parameter θ . The parameter θ is again determined by the distances between the virtual listening position 202 and the microphones, and can be from minus 45 degrees to 45 degrees.

Insbesondere für die Kombination von zwei Quellsignalen, über die nur ein eingeschränktes a-priori-Wissen besteht, wie dies beispielsweise bei einem räumlich leicht variierenden Diffus-Schallfeld der Fall sein kann, kann eine vierte Kombinationsregel verwendet werden, gemäß der die erste vorhergehend beschriebene Überblendregel und die zweite vorhergehend beschriebene Überblendregel abhängig von den zu kombinierenden Quellsignalen kombiniert werden. Insbesondere wird gemäß der vierten Kombinationsregel eine LinearKombination von zwei Zwischensignalen xvirt1 und xvirt2 besteht, die für die Quellsignale x1 und x2 jeweils zunächst separat gemäß der ersten und der zweiten Überblendregel erzeugt wurden. Insbesondere wird gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung als Gewichtsfaktor für die Linearkombination der Korrelationskoeffizient σx1x2 zwischen den Quellsignalen x1 und x2 verwendet, der sich wie folgt definiert und ein Maß für die Ähnlichkeit der beiden Signale darstellt: σ x 1 x 2 = E x 1 E x 1 * x 2 E x 2 σ x 1 σ x 2 E x 1 * x 2 σ x 1 σ x 2 .

Figure imgb0009
In particular, for the combination of two source signals, over which there is limited a-priori knowledge, as may be the case, for example, in a spatially slightly varying diffuse sound field, a fourth combination rule may be used, according to which the first previously described fade rule and combining the second previously described fading rule depending on the source signals to be combined. In particular, according to the fourth combination rule, there is a linear combination of two intermediate signals x virt1 and x virt2 , which were initially generated separately for the source signals x 1 and x 2 according to the first and the second crossfading rule. In particular, according to some embodiments of the present invention, the weighting factor for the linear combination is the correlation coefficient σ x1x2 between the source signals x 1 and x 2 , which is defined as follows and represents a measure of the similarity of the two signals: σ x 1 x 2 = e x 1 - e x 1 * x 2 - e x 2 σ x 1 σ x 2 e x 1 * x 2 σ x 1 σ x 2 ,
Figure imgb0009

Wobei E den Erwartungswert bzw. den linearen Mittelwert bezeichnet und σ die Standardabweichung der betreffenden Größe bzw. des betreffenden Quellsignals angibt, wobei für akustische Signale in guter Näherung gilt, dass der lineare Mittelwert E{x} Null ist. x virt = σ x 1 x 2 x virt 1 + 1 σ x 1 x 2 x virt 2 .

Figure imgb0010
Where E denotes the expected value or the linear mean value and σ indicates the standard deviation of the relevant variable or the respective source signal, whereby for acoustic signals to a good approximation the linear mean value E {x} is zero. x virt = σ x 1 x 2 * x virt 1 + 1 - σ x 1 x 2 * x virt 2 ,
Figure imgb0010

Das heißt, gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung umfasst die Kombinationsregel ferner das Bilden einer gewichteten Summe xvirt aus dem mit einem Korrelationskoeffizienten σx1x2 für eine Korrelation zwischen dem ersten Quellsignal x1 und dem zweiten Quellsignal x2 gewichteten Zwischensignalen xvirt1 und xvirt2.That is, according to some embodiments of the present invention, the combination rule further comprises forming a weighted sum x virt from the intermediate signals x virt1 and x virt2 weighted with a correlation coefficient σ x1x2 for a correlation between the first source signal x 1 and the second source signal x 2 .

Durch Verwendung der vierten Kombinationsregel kann somit gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung über den gesamten Parameterbereich eine Kombination mit näherungsweise konstanter Lautstärke erreicht werden. Dies kann ferner überwiegend unabhängig davon erreicht werden, ob die zu kombinierenden Signale unähnlich oder ähnlich sind.By using the fourth combination rule, a combination with approximately constant volume can thus be achieved over the entire parameter range according to some embodiments of the present invention. This can also be overwhelming regardless of whether the signals to be combined are dissimilar or similar.

Insofern gemäß einiger Ausführungsbeispiele der vorliegenden Erfindung ein Tonsignal an einer virtuellen Abhörposition 202 gewonnen werden soll, die sich innerhalb eines von drei Mikrofonen 250 bis 254 begrenzten Dreiecks befindet, können gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung die drei Quellsignale der Mikrofone 250 bis 254 linear kombiniert werden, wobei die einzelnen Signalanteile der den Mikrofonen 250 bis 254 zugeordneten Quellsignale basierend auf einer senkrechten Projektion der virtuellen Abhörposition 202 auf diejenige Höhe des Dreiecks erfolgt, die der Position des dem jeweiligen Quellsignal zugeordneten Mikrofons zugeordnet ist.Inasmuch as according to some embodiments of the present invention, a sound signal is to be acquired at a virtual listening position 202 that is within a triangle bounded by three microphones 250 to 254, in accordance with some embodiments of the present invention, the three source signals of the microphones 250 to 254 may be linearly combined in which the individual signal components of the source signals associated with the microphones 250 to 254 are based on a vertical projection of the virtual listening position 202 on the height of the triangle which is assigned to the position of the microphone assigned to the respective source signal.

Soll beispielsweise der Signalanteil des Mikrofons 250 bzw. das diesem Quellsignal zugeordnete Gewicht bestimmt werden, wird zunächst eine senkrechte Projektion der virtuellen Abhörposition 202 auf die Höhe 262 vorgenommen, welche dem Mikrofon 250 zugeordnet ist bzw. der Ecke des Dreiecks, an der sich das Mikrofon 250 befindet. Daraus ergibt sich die in Figur 5 gestrichelt dargestellte projizierte Position 264 auf der Höhe 262. Diese wiederum unterteilt die Höhe 262 in einen dem Mikrofon 250 zugewandten ersten Höhenabschnitt 266 und einen diesem abgewandten Höhenabschnitt 268. Das Verhältnis dieser Höhenabschnitte 266 und 268 wird benutzt, um gemäß einem der obengenannten Überblendregeln ein Gewicht für das Quellsignal des Mikrofons 250 zu berechnen, wobei davon ausgegangen wird, dass sich an dem dem Mikrofon 250 gegenüberliegenden Ende der Höhe 262 eine Schallquelle bzw. ein Mikrofon befindet, das konstant ein Signal mit der Amplitude null aufzeichnet.If, for example, the signal component of the microphone 250 or the weight associated with this source signal are to be determined, a vertical projection of the virtual listening position 202 to the height 262 is initially made, which is assigned to the microphone 250 or the corner of the triangle at which the microphone 250 is located. This results in the FIG. 5 This in turn divides the height 262 into a first height portion 266 facing the microphone 250 and a height portion 268 facing away from the microphone. The ratio of these height portions 266 and 268 is used to weight according to one of the above fade rules for the source signal of the microphone 250, assuming that at the opposite end of the height 262 from the microphone 250 is a sound source or microphone which constantly records a signal of zero amplitude.

D. h., gemäß den Ausführungsbeispielen der Erfindung wird die Höhe jeder Dreiecksseite ermittelt und der Abstand des virtuellen Mikrofons zu jeder Dreieckseite bestimmt. Entlang der entsprechenden Höhe wird das Mikrofonsignal linear bzw. je nach gewählter Überblendregel von dem Eckpunkt des Dreiecks zur gegenüberliegenden Dreiecksseite auf null geblendet. Für das in Figur 5 gezeigte Ausführungsbeispiel bedeutet dies, das Quellsignal des Mikrofons 250 wird mit dem Gewicht 1 verwendet, wenn sich die Projektion 264 an der Position des Mikrofons 250 befindet und mit null, wenn sich diese auf der Verbindungsgeraden zwischen der Position der Mikrofone 252 und 254, also auf der gegenüberliegenden Seite des Dreiecks befindet. Zwischen diesen beiden Extrempositionen wird das Quellsignal des Mikrofons 250 ein- bzw. ausgeblendet. In allgemeinen Worten bedeutet dies, dass beim Kombinieren des Signals aus drei Signalen drei Quellsignale x1 bis x3 berücksichtigt werden, deren zugeordnete Mikrofone 250 bis 254 eine dreieckige Fläche aufspannen, innerhalb derer sich die virtuelle Abhörposition 202 befindet. Dabei werden die Gewichte g1 bis g3 für die Linearkombination der Quellsignale x1 bis x3 basierend auf einer senkrechten Projektion der virtuellen Abhörposition 202 auf diejenige Höhe des Dreiecks bestimmt, die der Position des dem jeweiligen Quellsignals zugeordneten Mikrofons zugeordnet ist bzw. durch den diese Höhe verläuft.That is, according to the embodiments of the invention, the height of each triangle side is determined and the distance of the virtual microphone to each triangle side is determined. Along the corresponding height, the microphone signal is blinded linearly or, depending on the selected fade rule, from the vertex of the triangle to the opposite triangle side to zero. For the in FIG. 5 As shown, this means that the source signal of the microphone 250 is used with the weight 1 when the projection 264 is at the position of the microphone 250 and zero when it is on the connecting line between the position of the microphones 252 and 254, ie located on the opposite side of the triangle. Between these two extremes becomes the source signal of the microphone 250 faded in or out. In general terms, this means that when combining the signal from three signals, three source signals x 1 to x 3 are taken into account whose associated microphones 250 to 254 span a triangular area within which the virtual listening position 202 is located. In this case, the weights g 1 to g 3 for the linear combination of the source signals x 1 to x 3 are determined based on a vertical projection of the virtual listening position 202 on the height of the triangle which is assigned to the position of the microphone assigned to the respective source signal or through the this height runs.

Insofern zur Bestimmung des Signals die oben diskutierte vierte Überblendregel verwendet wird, kann ein gemeinsamer Korrelationskoeffizient für die drei Quellsignale x1 bis x3 dadurch bestimmt werden, dass zunächst eine Korrelation zwischen den jeweils benachbarten Quellsignalen ermittelt wird, woraus sich insgesamt drei Korrelationskoeffizienten ergeben. Aus den drei so erhaltenen Korrelationskoeffizienten wird ein gemeinsamer Korrelationskoeffizient durch Mittelwertbildung gebildet, welcher wiederum die Gewichtung für die Summe von Teilsignalen bestimmt, die mittels der ersten Überblendregel (lineares Panning) und der zweiten Überblendregel (Sinus-Cosinus-Gesetz) gebildet werden. Das heißt, es wird zunächst ein erstes Teilsignal mit dem Sinus-Cosinus-Gesetz bestimmt, daraufhin wird ein zweites Teilsignal mit dem linearen Panning bestimmt und die beiden Teilsignale werden durch Gewichtung mit dem Korrelationskoeffizienten linear kombiniert.In so far for the determination of the signal, the above-discussed fourth fade control is used, a common correlation coefficient for the three source signals x 1 can be determined to x 3, characterized in that first a correlation between the respective adjacent source signals is determined, resulting in a total of three correlation coefficient values. From the three correlation coefficients thus obtained, a common correlation coefficient is formed by averaging, which in turn determines the weighting for the sum of sub-signals formed by the first fading rule (linear panning) and the second fading rule (sine-cosine law). That is, it is first determined a first sub-signal with the sine-cosine law, then a second sub-signal is determined with the linear panning and the two sub-signals are linearly combined by weighting with the correlation coefficient.

Figur 6 zeigt eine Illustration einer weiteren möglichen Konfiguration von Positionen von Mikrofonen 270 bis 278, innerhalb derer eine virtuelle Abhörposition 202 angeordnet ist. Insbesondere anhand von Figur 6 wird eine weitere mögliche Kombinationsregel illustriert, deren Eigenschaften mit den voranstehend beschriebenen Kombinationsmöglichkeiten beliebig kombiniert werden kann oder die auch für sich allein genommen ein Kombinationsregel im hierin beschriebenen Sinn sein kann. FIG. 6 FIG. 11 is an illustration of another possible configuration of positions of microphones 270 through 278 within which a virtual listening position 202 is located. In particular, based on FIG. 6 another possible combination rule is illustrated, the properties of which can be arbitrarily combined with the above-described possible combinations or which, taken alone, can also be a combination rule in the sense described herein.

Gemäß einigen Ausführungsbeispielen der Erfindung wird, wie in Figur 6 schematisch dargestellt, ein Quellsignal lediglich dann bei der Kombination zum Tonsignal für eine virtuelle Abhörposition 202 berücksichtigt, wenn das dem Quellsignal zugeordnete Mikrofon sich innerhalb eines vorbestimmten konfigurierbaren Abstandes R von der virtuellen Abhörposition 202 befindet. Dadurch kann gemäß einigen Ausführungsbeispielen Rechenzeit möglicherweise gespart werden, indem beispielsweise nur diejenigen Mikrofone berücksichtigt werden, deren Signalbeiträge gemäß den gewählten Kombinationsregeln oberhalb der menschlichen Hörschwelle liegen.According to some embodiments of the invention, as in FIG. 6 schematically considered, a source signal only in combination with the sound signal for a virtual listening position 202 taken into account when the microphone associated with the source signal is within a predetermined configurable distance R from the virtual listening position 202. As a result, computation time can possibly be saved, for example, by taking into account only those microphones, in accordance with some embodiments whose signal contributions lie above the human hearing threshold according to the selected combination rules.

Gemäß einigen Ausführungsbeispielen der Erfindung kann, wie in Figur 7 schematisch dargestellt, die Kombinationsregel ferner eine Richtcharakteristik für die virtuelle Abhörposition 202 berücksichtigen. Das heißt beispielsweise, das erste Gewicht g1 für das erste Quellsignal x1 des ersten Mikrofons 220 kann zusätzlich proportional zu einem Richtungsfaktor rf1 sein, der sich aus einer Empfindlichkeitsfunktion bzw. einer Richtcharakteristik für die virtuelle Abhörposition 202 ergibt sowie aus der Relativposition zwischen virtueller Abhörposition 202 und Mikrofon 220. D. h. gemäß diesen Ausführungsbeispielen umfasst die erste Geometrieinformation ferner eine erste Richtungsinformation über eine Richtung zwischen dem Mikrofon 220 und einer der virtuellen Abhörposition 202 zugeordneten Vorzugsrichtung 280, in der die Richtcharakteristik 282 ihre maximale Empfindlichkeit aufweist.According to some embodiments of the invention, as shown in FIG FIG. 7 schematically illustrated, the combination rule further take into account a directional characteristic for the virtual listening position 202. That is to say, for example, the first weight g 1 for the first source signal x 1 of the first microphone 220 may additionally be proportional to a directional factor rf 1 , which results from a sensitivity function or a directional characteristic for the virtual listening position 202 and from the relative position between virtual Listening position 202 and microphone 220. D. h. According to these embodiments, the first geometry information further comprises first directional information about a direction between the microphone 220 and a preferred direction 280 associated with the virtual listening position 202, in which the directional characteristic 282 has its maximum sensitivity.

Allgemein gesprochen sind damit die Gewichtungsfaktoren g1 und g2 der Linearkombination der Quellsignale x1 und x2 gemäß einigen Ausführungsbeispielen zusätzlich von einem ersten Richtungsfaktor rf1 und einen zweiten Richtungsfaktor rf2 abhängig, die der Richtcharakteristik 280 an der virtuellen Abhörposition 202 Rechnung tragen.Generally speaking, the weighting factors g 1 and g 2 of the linear combination of the source signals x 1 and x 2 are additionally dependent on a first directional factor rf 1 and a second directional factor rf 2 , which take into account the directional characteristic 280 at the virtual listening position 202 according to some embodiments.

Die in den vorhergehenden Absätzen diskutierten Kombinationsregeln können in anderen Worten wie folgt zusammengefasst werden. Die einzelnen Implementierungen sind in den nächsten Abschnitten genauer beschrieben. Allen Varianten ist gemein, dass bei der Addition der Signale Kammfiltereffekte auftreten könnten. Ist dies potentiell der Fall, können die Signale zuvor entsprechend verzögert werden. Daher wird zunächst der zur Verzögerung verwendbare Algorithmus dargestellt.In other words, the combination rules discussed in the preceding paragraphs can be summarized as follows. The individual implementations are described in more detail in the next sections. All variants have in common that comb filter effects could occur when adding the signals. If this is potentially the case, the signals can be delayed accordingly beforehand. Therefore, the algorithm usable for delay is first shown.

Bei Mikrofonen, welche einen größeren Abstand als zwei Meter zueinander haben, können Signale ohne Entstehung von wahrnehmbaren Kammfiltereffekten aufaddiert werden. Ebenfalls bedenkenlos lassen sich Signale von Mikrofonen summieren, bei deren Positionsabstanden die sogenannte 3:1-Regel eingehalten wird. Die Regel besagt, dass bei der Aufnahme einer Schallquelle mit zwei Mikrofonen der Abstand zwischen der Schallquelle und dem zweiten Mikrofon mindestens das Dreifache des Abstandes von der Schallquelle zum ersten Mikrofon betragen soll, um keine wahrnehmbaren Kammfiltereffekte zu erhalten. Voraussetzung sind Mikrofone gleicher Empfindlichkeit und der Abfall des Schalldruckpegels mit der Entfernung, beispielsweise nach dem 1/r-Gesetz.For microphones that are more than two meters apart, signals can be summed up without producing noticeable comb filter effects. It is also safe to sum up signals from microphones whose position intervals comply with the so-called 3: 1 rule. The rule states that when recording a sound source with two microphones, the distance between the sound source and the second microphone should be at least three times the distance from the sound source to the first microphone in order to obtain any noticeable comb filter effects. requirement are microphones of the same sensitivity and the drop of the sound pressure level with the distance, for example according to the 1 / r-law.

Das System bzw. ein Tonsignalerzeuger oder dessen Geometrieprozessor ermittelt zu Beginn, ob beide Bedingungen erfüllt sind. Ist dies nicht der Fall, können die Signale vor der Berechnung des virtuellen Mikrofonsignals entsprechend der momentanen Position des virtuellen Mikrofons verzögert werden. Die Abstände aller Mikrofone zum virtuellen Mikrofon werden dazu gegebenenfalls bestimmt und die Signale bezüglich des Mikrofons, welches am weitesten vom virtuellen entfernt liegt, zeitlich verschoben. Dazu wird der größte Abstand ermittelt und die Differenz zu den übrigen Abständen gebildet. Die Latenz Δti in samplen ergibt sich nun aus dem Verhältnis der jeweiligen Distanz di zur Schallgeschwindigkeit c multipliziert mit der Abtastrate Fs. Der berechnete Wert kann in digitalen Implementierungen beispielsweise gerundet werden, wenn das Signal nur um ganze Samples verzögert werden soll. N bezeichne im Folgenden die Anzahl der Aufnahmemikrofone: Δ t i = round d i c Fs mit i = 1 , , N .

Figure imgb0011
Gemäß einigen weiteren Ausführungsbeispielen werden alle Quellsignale mit der maximalen bestimmten Latenz beaufschlagt.The system or a tone signal generator or its geometry processor initially determines whether both conditions are met. If this is not the case, the signals can be delayed prior to the calculation of the virtual microphone signal according to the current position of the virtual microphone. If necessary, the distances of all microphones to the virtual microphone are determined and the signals with respect to the microphone, which is furthest from the virtual one, are shifted in time. For this purpose the largest distance is determined and the difference to the remaining distances is formed. The latency Δt i in samples now results from the ratio of the respective distance d i to the sound velocity c multiplied by the sampling rate Fs. The calculated value can be rounded in digital implementations, for example, if the signal is only to be delayed by whole samples. N here are the number of recording microphones: Δ t i = round d i c * fs with i = 1 . ... . N ,
Figure imgb0011
According to some other embodiments, all the source signals are applied with the maximum specific latency.

Zu Berechnung des virtuellen Mikrofonsignals können folgende Varianten implementiert werden. Dabei werden Nahmikrofone bzw. Mikrofone zur Aufzeichnung von Direktschall nachfolgend als Mikrofone eines ersten Mikrofontyps und Ambientmikrofone bzw. Mikrofone zur Aufzeichnung eines diffusen Schallanteils als Mikrofone eines zweiten Mikrofontyps bezeichnet. Ferner wird die virtuelle Abhörposition auch als Position eines virtuellen Mikrofons bezeichnet.To calculate the virtual microphone signal, the following variants can be implemented. In this case, close microphones or microphones for recording direct sound are referred to below as microphones of a first microphone type and Ambientmikrofone or microphones for recording a diffuse sound component as microphones of a second microphone type. Furthermore, the virtual listening position is also referred to as a position of a virtual microphone.

Gemäß einer ersten Variante fallen sowohl die Signale der Nahmikrofone bzw. der Mikrofone eines ersten Mikrofontyps als auch die Signale der Ambientmikrofone nach dem Abstandsgesetz ab. Hierdurch kann jedes Mikrofon an seiner Position besonders dominant gehört werden. Für die Berechnung des virtuellen Mikrofonsignals können zunächst die Nahfeldradien um die Nah- und Ambientmikrofone durch den Nutzer festgelegt werden. Innerhalb dieses Radius bleibt die Lautstärke der Signale konstant. Platziert man nun das virtuelle Mikrofon in der Aufnahmeszene werden die Abstände vom virtuellen Mikrofon zu jedem einzelnen realen Mikrofon berechnet. Hierfür werden die Samplewerte der Mikrofonsignale xi[t] durch die momentane Entfernung di geteilt und mit dem Nahfeldradius rnah multipliziert. N gibt die Anzahl der Aufnahmemikrofone an: x i , ged a ¨ mpft t = x i t d i r nah mit i = 1 , , N .

Figure imgb0012
Auf diese Weise erhält man das aufgrund der räumlichen Entfernung di gedämpfte Mikrofonsignal xi,gedämpft. Alle so berechneten Signale werden aufaddiert und bilden gemeinsam das Signal für das virtuelle Mikrofon: x virtMic t = i = 1 N x i , ged a ¨ mpft t .
Figure imgb0013
Gemäß einer zweiten Variante erfolgt eine Trennung des Direkt- und Diffusschalls. Das Diffusschallfeld soll dabei im gesamten Raum annähernd gleich laut sein. Hierfür wird der Raum durch die Anordnung der Ambientmikrofone in bestimmte Bereiche gegliedert. Je nach Bereich berechnet sich der diffuse Schallanteil aus einem, zwei oder drei Mikrofonsignalen. Die Signale der Nahmikrofone fallen mit der Entfernung nach dem Abstandsgesetz ab.According to a first variant, both the signals of the close microphones or of the microphones of a first microphone type and the signals of the ambient microphones fall off according to the law of distance. As a result, each microphone can be heard in his position particularly dominant. For the calculation of the virtual microphone signal, the near field radii around the near and ambient microphones can first be determined by the user. Within this radius, the volume of the signals remains constant. If you now place the virtual microphone in the recording scene, the distances from the virtual microphone to each individual real microphone are calculated. For this, the sample values of the microphone signals x i [t] is divided by the instantaneous distance d i and multiplied by the near field radius r nah . N indicates the number of recording microphones: x i . ged a ¨ fumes t = x i t d i * r close with i = 1 . ... . N ,
Figure imgb0012
In this manner, the attenuated microphone signal x i, attenuated due to the spatial distance d i. All signals calculated in this way are added together and together form the signal for the virtual microphone: x virtMic t = Σ i = 1 N x i . ged a ¨ fumes t ,
Figure imgb0013
According to a second variant, a separation of the direct and diffuse sound. The diffuse sound field should be approximately equal in volume throughout the room. For this purpose, the room is arranged by the arrangement of Ambientmikrofone in certain areas. Depending on the area, the diffuse sound component is calculated from one, two or three microphone signals. The signals of the Nahmikrofone fall off with the distance according to the distance law.

Abbildung 4 zeigt beispielhaft eine Raumaufteilung. Die Punkte symbolisieren die Ambientmikrofone. Die äußeren Ambientmikrofone bilden ein Polygon. Der Bereich innerhalb dieses Polygons wird in Dreiecke aufgeteilt. Hierfür wird die Delaunay-Triangulation angewendet. Mit diesem Verfahren kann aus einer Punktmenge ein Dreiecksnetz gebildet werden. Es zeichnet sich vor allem dadurch aus, dass der Umkreis eines Dreiecks keine weiteren Punkte der Menge einschließt. Durch Erfüllen dieser sogenannten Umkreisbedingung entstehen Dreiecke mit möglichst großen Innenwinkeln. In Abbildung 4 ist diese Triangulation anhand von vier Punkten dargestellt. Figure 4 shows an example of a room layout. The dots symbolize the ambient microphones. The outer ambient microphones form a polygon. The area within this polygon is divided into triangles. For this the Delaunay triangulation is used. With this method, a triangle mesh can be formed from a set of points. Above all, it is distinguished by the fact that the circumference of a triangle does not include any further points of the set. By fulfilling this so-called perimeter condition, triangles are created with the largest possible interior angles. In Figure 4 this triangulation is represented by four points.

Durch die Delaunay-Triangulation werden nah beieinander liegende Mikrofone gruppiert und jedes Mikrofon auf den umliegenden Raum abgebildet. Das Signal für das virtuelle Mikrofon berechnet sich innerhalb des Polygons aus jeweils drei Mikrofonsignalen. Außerhalb des Polygons werden zu jeder Verbindungslinie zweier Eckpunkte zwei senkrechte Geraden bestimmt, welche durch die Eckpunkte verlaufen. Hierdurch werden auch außerhalb des Polygons bestimmte Bereiche begrenzt. Das virtuelle Mikrofon kann sich somit entweder zwischen zwei Mikrofonen befinden oder bei einem Mikrofon an einem Eckpunkt. Zur Berechnung des diffusen Schallanteils sollte zunächst ermittelt werden, ob sich das virtuelle Mikrofon innerhalb oder außerhalb des den Rand bildenden Polygons befindet. Je nach Position berechnet sich der diffuse Anteil des virtuellen Mikrofonsignals aus einem, zwei oder drei Mikrofonsignalen.Delaunay triangulation groups closely spaced microphones and maps each microphone to the surrounding space. The signal for the virtual microphone is calculated within the polygon of three microphone signals. Outside the polygon, two vertical lines are defined for each connecting line of two vertices, which run through the corner points. This limits certain areas outside the polygon as well. The virtual microphone can thus be located either between two microphones or with a microphone at a corner point. To calculate the diffuse sound component, it should first be determined whether the virtual microphone is inside or outside the polygon forming the edge. ever by position, the diffused portion of the virtual microphone signal is calculated from one, two or three microphone signals.

Befindet sich das virtuelle Mikrofon außerhalb des Polygons wird zwischen den Bereichen an einem Eckpunkt und zwischen zwei Mikrofonen unterschieden. Befindet sich das virtuelle Mikrofon in dem Bereich bei einem Mikrofon an einem Eckpunkt des Polygons, wird nur das Signal xi dieses Mikrofons für die Berechnung des Diffusschallanteils verwendet: x diffus t = x i t .

Figure imgb0014
Im Bereich zwischen zwei Mikrofonen setzt sich das virtuelle Mikrofonsignal aus den beiden entsprechenden Mikrofonsignalen x1 und x2 zusammen. Je nach Position wird zwischen den beiden Signalen mit Hilfe verschiedener Überblendregeln bzw. Panning-Verfahren überblendet. Diese werden nachfolgend auch wie folgt bezeichnet: lineares Panning-Gesetz (erste Überblendregel), Sinus-Cosinus-Gesetz (zweite Überblendregel), Tangens-Gesetz (dritte Überblendregel) und Kombination aus linearem Panning-Gesetz und Sinus-Cosinus-Gesetz (vierte Überblendregel).If the virtual microphone is outside the polygon, a distinction is made between the areas at one vertex and between two microphones. If the virtual microphone in the area near a microphone is at a vertex of the polygon, only the x i signal from that microphone will be used to calculate the diffused sound portion: x diffuse t = x i t ,
Figure imgb0014
In the area between two microphones the virtual microphone signal is composed of the two respective microphone signals x 1 and x2. Depending on the position, the two signals are superimposed using different fade rules or panning methods. These are also referred to as follows: linear panning law (first fade rule), sine cosine law (second fade rule), tangent law (third fade rule) and combination of linear panning law and sine cosine law (fourth fade rule ).

Für die Kombination aus den beiden Panning-Verfahren linear (xvirt1) und Sinus-Cosinus-Gesetz (xvirt2) wird der Korrelationskoeffizient σx1x2 der beiden Signale x1 und x2 bestimmt: σ x 1 x 2 = E x 1 E x 1 * x 2 E x 2 σ x 1 σ x 2 E x 1 * x 2 σ x 1 σ x 2

Figure imgb0015
For the combination of the two panning methods linear (x virt1 ) and sine-cosine law (x virt2 ) the correlation coefficient σ x1x2 of the two signals x 1 and x 2 is determined: σ x 1 x 2 = e x 1 - e x 1 * x 2 - e x 2 σ x 1 σ x 2 e x 1 * x 2 σ x 1 σ x 2
Figure imgb0015

Je nach Größe des Koeffizienten σx1x2 fließt das jeweilige Gesetz in die Berechnung der gewichteten Summe xvirt ein: x virt = σ x 1 x 2 x virt 1 + 1 σ x 1 x 2 x virt 2 ,

Figure imgb0016
wobei x virt 1 = g 1 * x 1 + 1 g 1 * x 2 ,
Figure imgb0017
wobei g2 = (1- g1); "lineares panning" x virt 2 = cos δ * x 1 + sin δ * x 2
Figure imgb0018
wobei δ E [0°; 90°]; "Sinus-Cosinus-Gesetz".Depending on the size of the coefficient σ x1x2 , the respective law flows into the calculation of the weighted sum x virt : x virt = σ x 1 x 2 * x virt 1 + 1 - σ x 1 x 2 * x virt 2 .
Figure imgb0016
in which x virt 1 = G 1 * x 1 + 1 - G 1 * x 2 .
Figure imgb0017
where g 2 = (1- g 1 ); "linear panning" x virt 2 = cos δ * x 1 + sin δ * x 2
Figure imgb0018
where δ E [0 °; 90 °]; "Sine-cosine law."

Beträgt der Korrelationskoeffizient σx1x2 gleich 1 handelt es sich um identische Signale und es wird nur linear überblendet. Bei einem Korrelationskoeffizienten von 0 kommt nur das Sinus-Cosinus-Gesetz zum Einsatz.If the correlation coefficient σ x1x2 equals 1, these are identical signals and only crossfades linearly. With a correlation coefficient of 0, only the sine-cosine law is used.

Der Korrelationskoeffizient kann in einigen Implementierungen nicht nur einen Augenblickswert beschreiben, sondern über einen gewissen Zeitraum integriert werden. Beim Korrelationsgradmesser kann dieser Zeitraum beispielsweise 0,5 s betragen. Da es sich bei den Ausführungsbeispielen der Erfindung bzw. den virtuellen Mikrofonen nicht immer um echtzeitfähige Systeme handeln muss, kann der Korrelationskoeffizient auch über eine größere Zeitdauer, beispielsweise 30s bestimmt werdenIn some implementations, the correlation coefficient may not only describe an instantaneous value, but may be integrated over a period of time. At the correlation meter For example, this period can be 0.5 s. Since the exemplary embodiments of the invention or the virtual microphones do not always have to be real-time capable systems, the correlation coefficient can also be determined over a longer period of time, for example 30 s

Im Bereich innerhalb des Polygons bzw. befindet sich die virtuelle Abhörposition innerhalb von Dreiecken, deren Eckpunkte mittels Delaunay-Triangulation festgelegt wurden, wie Anhand von Figur 5 verdeutlicht wurde. In jedem Dreieck setzt sich der Diffusschallanteil des virtuellen Mikrofonsignals aus den drei Quellsignalen der an den Ecken liegenden Mikrofone zusammen. Es wird dazu die Höhe h jeder Dreiecksseite ermittelt und der Abstand dvirtMic des virtuellen Mikrofons zu jeder Dreiecksseite bestimmt. Entlang der entsprechenden Höhe wird das Mikrofonsignal je nach eingestelltem Panning-Verfahren bzw. je nach verwendeter Überblendregel von einem Eckpunkt zur gegenüberliegenden Dreiecksseite auf null geblendet.In the area within the polygon or the virtual listening position is located within triangles whose vertices were defined by means of Delaunay triangulation, such as FIG. 5 was clarified. In each triangle, the diffused sound component of the virtual microphone signal is composed of the three source signals of the microphones located at the corners. For this purpose, the height h of each triangle side is determined and the distance d v i rtMic of the virtual microphone to each triangle side is determined. Depending on the set panning method or depending on the fade rule used, the microphone signal is blended to zero from one vertex to the opposite side of the triangle along the corresponding height.

Dazu können prinzipiell die oben beschriebenen Panning- Verfahren verwendet werden, welche auch für die Berechnung des Signals außerhalb des Polygons verwendet werden. Die Division des Abstands dvirtMic durch den Wert der Höhe h normiert die Strecke auf eine Länge von 1 und liefert die zugehörige Position auf der Panning- Kurve. Hiermit lässt sich nun auf der y-Achse der Wert ablesen, mit dem jedes der drei Signale entsprechend des eingestellten Panning-Verfahrens multipliziert wird.For this purpose, in principle, the panning methods described above can be used, which are also used for the calculation of the signal outside the polygon. The division of the distance d virtMic by the value of the height h normalizes the distance to a length of 1 and delivers the corresponding position on the panning curve. Hereby, the value can be read on the y-axis, with which each of the three signals is multiplied according to the set panning method.

Für die Kombination aus linearem Panning-Gesetz und dem Sinus-Cosinus-Gesetz wird zunächst aus jeweils zwei Quellsignalen der Korrelationskoeffizient bestimmt. Hierdurch erhält man drei Korrelationskoeffizienten, aus denen anschließend der Mittelwert gebildet wird.For the combination of linear panning law and the sine-cosine law, the correlation coefficient is first determined from two respective source signals. This gives three correlation coefficients, from which the mean value is subsequently formed.

Dieser Mittelwert bestimmt die Gewichtung der Summe von linearem und Sinus-Cosinus-Panning-Gesetz. Auch hier gilt: Ist der Wert gleich 1, wird nur mittels linearem Panning-Gesetz überblendet. Für einen Wert gleich 0 wird nur das Sinus-Cosinus-Gesetz verwendet. Abschließend ergeben alle drei Signale addiert den diffusen Anteil des Schalls.This average determines the weighting of the sum of linear and sine-cosine panning law. Again, if the value equals 1, it will only be superimposed using a linear panning law. For a value equal to 0, only the sine-cosine law is used. In conclusion, all three signals add up the diffused portion of the sound.

Der Anteil des direkten Schalls ist dem diffusen überlagert, wobei der direkte Schallanteil von Mikrofonen des Typs "D" und der indirekte Schallanteil von Mikrofonen des Typs "A" im vorhergehend eingeführten Sinne aufgenommen wird. Schließlich werden der diffuse und der direkte Schallanteil addiert und ergeben so das Signal für das virtuelle Mikrofon: x virtMic t = x diffus t + x direkt t .

Figure imgb0019
The proportion of direct sound is superimposed on the diffuse, with the direct sound content of microphones of the type "D" and the indirect sound content of microphones of the type "A" recorded in the previously introduced sense. Finally, the diffuse and direct sound components are added together to give the signal for the virtual microphone: x virtMic t = x diffuse t + x directly t ,
Figure imgb0019

Es ist ferner möglich, diese Variante zu erweitern. Nach Wunsch kann ein beliebig großer Radius um ein Mikrofon eingestellt werden. Innerhalb dieses Bereichs ist nur das dort befindliche Mikrofon zu hören. Alle anderen Mikrofone werden auf null gesetzt bzw. mit einem Gewicht von 0 versehen, sodass das Signal des virtuellen Mikrofons dem Signal des ausgewählten Mikrofons entspricht: x virtMic t = x i , sel t .

Figure imgb0020
It is also possible to extend this variant. If desired, an arbitrarily large radius can be set around a microphone. Within this range, only the microphone located there can be heard. All other microphones will be zeroed or weighted to 0 so that the virtual microphone signal matches the signal from the selected microphone: x virtMic t = x i . sel t ,
Figure imgb0020

Gemäß der dritten Variante fließen nur die Mikrofone, die sich in einem bestimmten Umkreis um das virtuelle Mikrofon befinden, in die Berechnung des virtuellen Mikrofonsignals ein. Hierfür werden zunächst die Abstände aller Mikrofone zum virtuellen Mikrofon ermittelt und daraus bestimmt, welche Mikrofone innerhalb des Kreises liegen. Die Signale der Mikrofone, welche sich außerhalb des Kreises befinden, werden auf null gesetzt bzw. erhalten das Gewicht 0.According to the third variant, only the microphones, which are located in a certain radius around the virtual microphone, flow into the calculation of the virtual microphone signal. For this purpose, the distances of all microphones to the virtual microphone are first determined and determined from which microphones are within the circle. The signals of the microphones which are outside the circle are set to zero or get the weight 0.

Die Signalwerte der Mikrofone xi(t) innerhalb des Kreises werden zu gleichen Teilen aufaddiert und ergeben so das Signal für das virtuelle Mikrofon. Gibt N die Anzahl der Aufnahmemikrofone innerhalb des Kreises an gilt: x virtMic t = 1 N i = 1 N x i t .

Figure imgb0021
Um plötzlich auftretende Lautstärkesprünge beim Übergang eines Mikrofons in oder aus dem Kreis heraus zu vermeiden, können die Signale am Rand des Kreises zusätzlich linear ein- bzw. ausgeblendet werden. Bei dieser Variante muss keine Unterscheidung in Nah- und Ambientmikrofone stattfinden.The signal values of the microphones x i (t) within the circle are added up in equal parts, resulting in the signal for the virtual microphone. If N specifies the number of recording microphones within the circle, the following applies: x virtMic t = 1 N Σ i = 1 N x i t ,
Figure imgb0021
In order to avoid suddenly occurring volume jumps when a microphone enters or leaves the circle, the signals at the edge of the circle can additionally be shown or hidden in a linear manner. In this variant, there is no need to distinguish between near and ambient microphones.

Bei allen Varianten kann es auch sinnvoll sein, dem virtuellen Mikrofon eine zusätzliche Richtcharakteristik zuzuweisen. Dazu kann das virtuelle Mikrofon mit einem Richtungsvektor r versehen werden, der zu Beginn in die Hauptrichtung der Richtcharakteristik (im Polardiagramm) zeigt. Da die Richtcharakteristik eines Mikrofons für einige Ausführungsbeispiele nur für Direktschall wirksam sein kann, wirkt sich dann die Richtcharakteristik nur auf die Signale der Nahmikrofone aus. Die Signale der Ambientmikrofone fließen unverändert in die Berechnung gemäß der Kombinationsregel ein. Vom virtuellen Mikrofon aus werden zu allen Nahmikrofonen Vektoren gebildet. Für jedes der Nahmikrofone wird der Winkel ϕi,nah zwischen diesem Vektor und dem Richtungsvektor des virtuellen Mikrofons errechnet. In Figur 7 ist dies beispielhaft für ein Mikrofon 220 dargestellt. Durch Einsetzen des Winkels in die allgemeine Mikrofongleichung s(ϕ) = a + b * cos(ϕ)erhält man einen Faktor s für jedes Quellsignal, welcher einer zusätzlichen Schalldämpfung aufgrund der Richtcharakteristik entspricht. Vor der Addition aller Quellsignale wird jedes Signal mit dem entsprechenden Faktor multipliziert. Es besteht so beispielsweise die Möglichkeit, zwischen den Richtcharakteristiken Kugel (a=1; b=0), Breite Niere (a=0,71; b=29), Niere (a=0,5; b=0,5), Superniere (a=0,37; b=0,63), Hyperniere (a=0,25; b=0,75) und Acht (a=0; b=1) zu wählen. Das virtuelle Mikrofon kann beispielsweise mit einer Genauigkeit von 1° oder darunter gedreht werden.In all variants, it may also be useful to assign an additional directional characteristic to the virtual microphone. For this purpose, the virtual microphone can be provided with a directional vector r, which initially points in the main direction of the directional characteristic (in the polar diagram). Since the directional characteristic of a microphone can be effective only for direct sound for some embodiments, then the directional characteristic affects only the signals of the Nahmikrofone. The signals of the ambient microphones are included unchanged in the calculation according to the combination rule. From the virtual microphone Vectors are formed to all close-up microphones. For each of the close-up microphones, the angle φ i, close between this vector and the directional vector of the virtual microphone is calculated. In FIG. 7 this is exemplified for a microphone 220. By inserting the angle in the general microphone equation s (φ) = a + b * cos (φ), one obtains a factor s for each source signal, which corresponds to an additional sound attenuation due to the directional characteristic. Before adding all the source signals, each signal is multiplied by the corresponding factor. For example, there is the possibility between the directional characteristics sphere (a = 1, b = 0), width kidney (a = 0.71, b = 29), kidney (a = 0.5, b = 0.5), Supercardioid (a = 0.37, b = 0.63), hypercardioid (a = 0.25, b = 0.75), and eight (a = 0, b = 1). For example, the virtual microphone can be rotated with an accuracy of 1 ° or less.

Figur 8 zeigt schematisch ein Mischpult 300, das einen Tonsignalerzeuger 100 umfasst, und mittels dessen Signale von Mikrofonen 290 bis 295 empfangen werden können, die dazu verwendet werden, eine akustisches Szene 208 aufzuzeichnen. Das Mischpult dient zum Verarbeiten der Quellsignale von zumindest zwei Mikrofonen 290 bis 295 und zum Bereitstellen eines abgemischten Tonsignals 302, das in der in Figur 8 gewählten Darstellung lediglich schematisch angedeutet ist. FIG. 8 12 schematically shows a mixer 300 comprising a tone signal generator 100 and by means of which signals can be received by microphones 290 to 295 which are used to record an acoustic scene 208. The mixer serves to process the source signals from at least two microphones 290 to 295 and to provide a mixed-tone signal 302, which is included in the FIG. 8 selected representation is indicated only schematically.

Gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung weist das Mischpult ferner eine Benutzerschnittstelle 306 auf, die ausgebildet ist, um eine grafische Repräsentation der Positionen der Mehrzahl von Mikrofonen 290 bis 295 anzuzeigen, sowie zusätzlich die Position einer virtuellen Abhörposition 202, die innerhalb des akustischen Raumes, in dem sich die Mikrofone 290 bis 295 befinden, angeordnet ist.In accordance with some embodiments of the present invention, the mixer further includes a user interface 306 configured to display a graphical representation of the positions of the plurality of microphones 290 to 295, and additionally the position of a virtual listening position 202 within the acoustic space the microphones 290 to 295 are located is arranged.

Gemäß einiger Ausführungsbeispiele erlaubt es die Benutzerschnittstelle ferner, jedem der Mikrofone 290 bis 295 einen Mikrofontyp zuzuordnen, beispielsweise einen ersten Typ (1), der Mikrofone zur Direktschallaufzeichnung kennzeichnet und einen zweiten Typ (2), der Mikrofone zur Aufzeichnung von diffusen Schallanteilen bezeichnet.According to some embodiments, the user interface further allows each of the microphones 290 to 295 to be assigned a type of microphone, for example, a first type (1) identifying microphones for direct sound recording and a second type (2) designating microphones for recording diffuse sound components.

Gemäß einigen weiteren Ausführungsbeispielen ist die Benutzerschnittstelle ferner ausgebildet, es einem Benutzer des Mischpultes auf einfache Art und Weise, beispielsweise durch Bewegung eines in Figur 8 schematisch dargestellten Cursors 310 bzw. einer Computermaus zu ermöglichen, die virtuelle Abhörposition 202 intuitiv und einfach zu bewegen, um so auf einfache Art und Weise eine Kontrolle der gesamten akustischen Szene bzw. des Aufnahmeequipments zu ermöglichen.According to some further embodiments, the user interface is further adapted to provide a user of the mixer in a simple manner, for example by movement of a in FIG. 8 schematically illustrated cursor 310 or a computer mouse, the virtual listening position 202 intuitively and easily to move Thus, in a simple manner to allow control of the entire acoustic scene or the recording equipment.

Figur 9 zeigt schematisch ein Ausführungsbeispiel eines Verfahrens zum Bereitstellen eines Tonsignals, das in einem Signalaufnahmeschritt 500 ein Empfangen eines von dem ersten Mikrofon aufgenommenen ersten Quellsignals x1 und eines von dem zweiten Mikrofon aufgenommenen zweiten Quellsignals x2 umfasst. FIG. 9 schematically shows an embodiment of a method for providing a sound signal comprising in a signal receiving step 500 receiving a first source signal x 1 picked up by the first microphone and a second source signal x 2 picked up by the second microphone.

Während eines Analyseschritts 502 wird eine erste Geometrieinformation basierend auf der ersten Position und der virtuellen Abhörposition und einer zweite Geometrieinformation basierend auf der zweiten Position und der virtuellen Abhörposition bestimmt. In einem Kombinationsschritt 505 wird zumindest des ersten Quellsignal x1 und des zweiten Quellsignal x2 gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel.During an analysis step 502, first geometry information is determined based on the first position and the virtual listening position and second geometry information based on the second position and the virtual listening position. In a combining step 505, at least the first source signal x 1 and the second source signal x 2 are combined according to a combination rule using the first geometry information and the second geometry information.

Figur 10 zeigt erneut schematisch eine Benutzerschnittstelle 306 für ein Ausführungsbeispiel der Erfindung, die sich von der in Figur 8 gezeigten leicht unterscheidet. In dieser bzw. in einem sogenannten "Interaction-Canvas" können die Positionen der Mikrofone angegeben werden, insbesondere auch als Schallquellen bzw. Mikrofone verschiedenen Typs bzw. Mikrofontyps (1,2,3,4). Dazu kann die Position zumindest eines Empfängers bzw. eine virtuelle Abhörposition 202 angegeben werden (Kreis mit Kreuz). Jede Schallquelle kann einem der Mischpultkanäle 310 bis 316 zugeordnet sein. FIG. 10 again schematically shows a user interface 306 for an embodiment of the invention, which differs from the in FIG. 8 slightly different. In this or in a so-called "interaction canvas" the positions of the microphones can be specified, in particular as sound sources or microphones of different types or microphones (1,2,3,4). For this purpose, the position of at least one receiver or a virtual listening position 202 can be specified (circle with cross). Each sound source may be associated with one of the mixer channels 310-316.

Wenngleich an Hand der vorhergehenden Ausführungsbeispiele überwiegend die Erzeugung eines einzelnen Tonsignals an einer virtuellen Abhörposition 202 diskutiert wurde, versteht es sich von selbst, dass gemäß weiteren Ausführungsbeispielen der vorliegenden Erfindung auch mehrere, beispielsweise 2, 3, 4 bis zu einer beliebigen Anzahl von Tonsignalen für weitere virtuelle Abhörpositionen erzeugt werden können, wobei jeweils die oben beschriebenen Kombinationsregeln verwendet werden.Although the generation of a single audio signal at a virtual listening position 202 has been discussed predominantly with reference to the preceding embodiments, it should be understood that according to other embodiments of the present invention, multiple, for example, 2, 3, 4 up to an arbitrary number of audio signals for more virtual Abhörpositionen can be generated, in each case the combination rules described above are used.

Dabei können bei weiteren Ausführungsbeispielen beispielsweise durch Verwenden mehrerer räumlich benachbarter virtueller Abhörpositionen auch unterschiedliche Abhörmodelle, beispielsweise des menschlichen Gehörs, erzeugt werden. Durch das Definieren von zwei virtuellen Abhörpositionen, die in etwa den Abstand des menschlichen Gehörs bzw. der Ohrmuschel aufweisen, kann beispielsweise in Verbindung mit einer frequenzabhängigen Richtcharakteristik für jede der virtuellen Abhörpositionen ein Signal erzeugt werden, das bei direktem Abhören mittels eines Kopfhörers oder dergleichen den Höreindruck simuliert, den ein menschlicher Zuhörer am Ort zwischen den beiden virtuellen Abhörpositionen hätte. Das heißt, am Ort des linken Gehörgangs bzw. der linken Hörmuschel würde die erste virtuelle Abhörposition erzeugt werden, die zudem eine frequenzabhängige Richtcharakteristik aufweist, so dass die Signalpropagation entlang des Gehörganges im Sinne einer Head-Related-Transfer-Function (HRTF) über die frequenzabhängige Richtcharakteristik simuliert werden könnte. Ginge man für die zweite virtuelle Abhörposition bezüglich des rechten Ohres genauso vor, erhielte man gemäß einigen Ausführungsbeispielen der vorliegenden Erfindung zwei Monosignale, die bei direktem Abhören beispielsweise mittels eines Kopfhörers dem Klangeindruck entsprächen, die ein realer Zuhörer am Ort der virtuellen Abhörposition hätte.In this case, in other embodiments, for example, by using a plurality of spatially adjacent virtual Abhörpositionen different interception models, such as human hearing, are generated. By defining two virtual listening positions, the distance of the human hearing or the Pinna, for example, in conjunction with a frequency-dependent directional characteristic for each of the virtual Abhörpositionen a signal can be generated that simulates the hearing experience that a human listener would have in place between the two virtual Abhörpositionen when listening directly by means of a headphone or the like. That is, at the location of the left ear canal or the left earpiece, the first virtual Abhörposition would be generated, which also has a frequency-dependent directional characteristic, so that the signal propagation along the ear canal in the sense of a Head-Related-Transfer-Function (HRTF) on the frequency-dependent directional characteristic could be simulated. If one were to do the same for the second virtual listening position with respect to the right ear, according to some embodiments of the present invention, two mono signals would be obtained which correspond directly to the sound impression that a real listener would have at the location of the virtual listening position when listening directly to, for example, a headphone.

Auf ähnliche Art und Weise kann beispielsweise auch ein herkömmliches Stereomikrofon simuliert werden.In a similar manner, for example, a conventional stereo microphone can also be simulated.

Zusammengefasst kann gemäß einiger Ausführungsbeispiele der Erfindung die Position einer Schallquelle (z.B. eines Mikrofons) im Mischpult / der Aufnahmesoftware angegeben bzw. automatisch erfasst werden. Basierend auf der Position der Schallquelle stehen dem Tonmeister zumindest drei neue Werkzeuge zur Verfügung:

  • Monitoring der räumlichen Klangszene, die gerade aufgezeichnet wird.
  • Erstellung von teilautomatisierten Tonmischungen durch Steuerung von virtuellen Empfängern.
  • Eine visuelle Darstellung der räumlichen Anordnung.
In summary, according to some embodiments of the invention, the position of a sound source (eg, a microphone) in the mixer / recording software can be specified or automatically detected. At least three new tools are available to the sound engineer based on the position of the sound source:
  • Monitoring the spatial sound scene being recorded.
  • Creation of semi-automated sound mixes by controlling virtual receivers.
  • A visual representation of the spatial arrangement.

Figur 10 zeigt schematisch eine potentielle Nutzerschnittstelle mit den Positionen der Schallquellen und einem oder mehreren "virtuellen Empfängern". Über die Benutzerschnittstelle bzw. über ein Interaction Canvas kann jedem Mikrofon (nummeriert mit 1 bis 4) eine Position zugewiesen werden. Jedes Mikrofon ist mit einem Kanalzug des Mischpults/ der Aufnahmesoftware verbunden. Durch die Positionierung eines oder mehrerer Empfänger (Kreis mit Kreuz) werden Tonsignale aus den Schallquellen berechnet, die zum Monitoring bzw. zum Finden von Signalfehlern oder der Erstellung von Mischungen verwendet werden können. Den Mikrofonen bzw. Schallquellen werden hierfür verschiedene Funktionstypen zugeordnet, z.B. Nahmikrofon (Typ "D") oder Ambientmikrofon (Typ "A") oder auch Teil eines Mikrofonarrays, welches nur zusammen mit den anderen ausgewertet werden soll. Abhängig von der Funktion werden die genutzten Berechnungsvorschriften angepasst. Des Weiteren erhält der Nutzer die Möglichkeit, die Berechnung des Ausgabesignals zu konfigurieren. Außerdem können weitere Parameter eingestellt werden, wie z.B. die Art der Überblendung zwischen benachbarten Mikrofonen. Variable Bestandteile bzw. Vorgehensweisen der Berechnung können sein:

  1. 1. Abstandsabhängige Lautstärke
  2. 2. Lautstärkeinterpolation zwischen zwei oder mehreren Schallquellen
  3. 3. Ein kleiner Bereich um die jeweilige Schallquelle, in der nur diese zu hören ist (der Abstandswert kann konfiguriert werden)
Solche Berechnungsvorschriften der Empfängersignale können verändert werden, beispielsweise indem:
  1. 1. Ein Empfängerbereich um die Schallquelle oder den Empfänger angegeben wird,
  2. 2. Eine Richtcharakteristik für den Empfänger angegeben wird.
Für jede Schallquelle kann ein Typ (z.B.: Direktschallmikrofon, Ambient- oder Diffusschallmikrofon) gewählt werden. Durch die Wahl des Typs wird die Berechnungsvorschrift des Signals am Empfänger gesteuert. FIG. 10 schematically shows a potential user interface with the positions of the sound sources and one or more "virtual receivers". Via the user interface or via an interaction canvas, each microphone (numbered 1 to 4) can be assigned a position. Each microphone is connected to a channel strip of the mixer / recording software. The positioning of one or more receivers (circle with cross) calculates sound signals from the sound sources that can be used for monitoring or finding signal errors or creating mixes. The microphones or sound sources for this purpose are different types of functions assigned, eg Nahmikrofon (type "D") or Ambientmikrofon (type "A") or even part of a microphone array, which should be evaluated only together with the others. Depending on the function, the calculation rules used are adjusted. Furthermore, the user has the opportunity to configure the calculation of the output signal. In addition, other parameters can be set, such as the type of crossfading between adjacent microphones. Variable components or procedures of the calculation can be:
  1. 1. Distance-dependent volume
  2. 2. Volume interpolation between two or more sound sources
  3. 3. A small area around the respective sound source, in which only these can be heard (the distance value can be configured)
Such calculation rules of the receiver signals can be changed, for example by:
  1. 1. a receiver area is specified around the sound source or the receiver,
  2. 2. A directional characteristic is given for the receiver.
For each sound source, one type (eg direct sound microphone, ambient or diffuse sound microphone) can be selected. By selecting the type, the calculation rule of the signal at the receiver is controlled.

Dies führt in der spezifischen Anwendung zu einer besonders einfachen Bedienung. Das Vorbereiten einer Aufnahme mit sehr vielen Mikrofonen wird so deutlich vereinfacht. Hierbei kann bereits im Einrichtungsprozess vor der eigentlichen Aufnahme jedem Mikrofon eine Position im Mischpult zugewiesen werden. Die Tonmischung muss nicht mehr per Lautstärkeeinstellung für jede Schallquelle am Kanalzug geschehen, sondern kann durch die Angabe einer Position des Empfängers in der Schallquellenszene (z.B.: einfacher Klick per Mouse in die Szene) erfolgen. Basierend auf einem wählbaren Modell zur Berechnung der Lautstärke am Empfängerort wird für jede Neupositionierung des Empfängers ein neues Signal berechnet. Durch "Abfahren" der Einzelmikrofone kann so sehr schnell ein Störsignal identifiziert werden. Gleichfalls kann durch eine Positionierung auch eine räumliche Tonmischung erstellt werden, wenn das Empfängersignal als Ausgangs-Lautsprechersignal weiter verwendet wird. Hierbei muss nun nicht mehr für jeden Einzelkanal eine Lautstärke eingestellt werden, die Einstellung erfolgt durch die Wahl der Position des Empfängers für alle Schallquellen gleichzeitig. Die Algorithmen bieten zusätzlich ein neuartiges kreatives Werkzeug.This leads to a particularly simple operation in the specific application. Preparing a recording with a lot of microphones is so much easier. In this case, each microphone can already be allocated a position in the mixing console in the setup process before the actual recording. The sound mixing no longer has to be done by adjusting the volume for each sound source on the channel strip, but can be done by specifying a position of the receiver in the sound source scene (eg: simple click with the mouse in the scene). Based on a selectable model for calculating the volume at the receiver site, a new signal is calculated for each repositioning of the receiver. By "shutting down" the single microphones, a noise signal can be identified very quickly. Likewise, by positioning a spatial sound mixture can be created if the receiver signal is used as the output speaker signal on. It is no longer necessary to set a volume for each individual channel; the setting is made by selecting the position of the receiver for all sound sources simultaneously. The algorithms also offer a novel creative tool.

Das Schema zur abstandsabhängigen Berechnung von Tonsignalen zeigt Figur 3. Hierbei wird in Abhängigkeit des Radius RL ein Lautstärkewert g nach g = 1 R L x

Figure imgb0022
berechnet. Die Variable x kann verschiedene Werte annehmen, in Abhängigkeit vom Typ der Schallquelle z.B. x=1; x=1/2. Befindet sich der Empfänger im Kreis mit dem Radius r1 gilt ein festgesetzter (konstanter) Lautstärkewert. Je größer die Entfernung der Schallquelle zum Empfänger ist, desto leiser ist das Tonsignal.The scheme for the distance-dependent calculation of sound signals shows FIG. 3 , Here, depending on the radius R L a volume value g after G = 1 R L x
Figure imgb0022
calculated. The variable x can assume different values, depending on the type of sound source eg x = 1; x = 1/2. If the receiver is in a circle with the radius r 1 , a fixed (constant) volume value applies. The greater the distance of the sound source to the receiver, the quieter the sound signal.

Ein Schema zur Lautstärkeinterpolation zeigt Figur 5. Hierbei erfolgt die Berechnung der am Empfänger eintreffenden Lautstärke anhand der Position des Empfängers zwischen zwei oder mehreren Mikrofonen. Die Auswahl der aktiven Schallquellen kann durch sog. "Nearest- Neighbor" Algorithmen bestimmt werden. Die Berechnung eines hörbaren Signals am Empfängerort bzw. an der virtuellen Abhörposition erfolgt durch eine Interpolationsvorschrift zwischen zwei oder mehreren Schallquellensignalen. Die jeweiligen Lautstärken werden dabei dynamisch angepasst, um dem Hörer eine stetig angenehme Lautstärke zu ermöglichen.A scheme for volume interpolation shows FIG. 5 , In this case, the calculation of the volume arriving at the receiver is based on the position of the receiver between two or more microphones. The selection of the active sound sources can be determined by so-called "nearest-neighbor" algorithms. The calculation of an audible signal at the receiver location or at the virtual listening position is effected by an interpolation rule between two or more sound source signals. The respective volumes are adjusted dynamically to allow the listener a constantly pleasant volume.

Neben der Aktivierung aller Schallquellen gleichzeitig, unter der Verwendung der distanzabhängigen Lautstärkeberechnung können Schallquellen durch einen weiteren Algorithmus aktiviert werden. Hierbei wird ein Bereich um den Empfänger mit dem Radius R definiert. Der Wert von R kann durch den Nutzer variiert werden. Befindet sich die Schallquelle in diesem Bereich, ist diese für den Empfänger hörbar. Dieser Algorithmus, abgebildet in Figur 6, kann auch mit der distanzabhängigen Lautstärkeberechnung kombiniert werden. Um den Empfänger existiert also ein Bereich mit dem Radius R. Befinden sich Schallquellen innerhalb des Radius, so sind diese für den Empfänger hörbar. Sind die Schallquellen auβerhalb, fließt deren Signal nicht in die Berechnung des Ausgabesignals ein.In addition to the activation of all sound sources at the same time, using the distance-dependent volume calculation, sound sources can be activated by another algorithm. Here, an area around the receiver with the radius R is defined. The value of R can be varied by the user. If the sound source is in this range, it is audible to the receiver. This algorithm, shown in FIG. 6, can also be combined with the distance-dependent volume calculation. So there is an area with the radius R around the receiver. If sound sources are within the radius, they are audible to the receiver. If the sound sources are outside, their signal is not included in the calculation of the output signal.

Zur Berechnung der Lautstärke der Schallquellen am Empfänger bzw. an der virtuellen Abhörposition ist es möglich, für den Empfänger eine Richtcharakteristik zu definieren. Diese gibt an, wie stark das Tonsignal einer Schallquelle richtungsabhängig am Empfänger wirksam ist. Die Richtcharakteristik kann ein frequenzabhängiger Filter oder ein reiner Lautstärkewert sein. Figur 7 zeigt dies schematisch. Der virtuelle Empfänger ist mit einem Richtungsvektor versehen, welcher durch den Nutzer rotiert werden kann. Eine Auswahl simpler Geometrien werden dem Nutzer zur Auswahl gestellt, sowie eine Auswahl von Richtcharakteristiken populärer Mikrofontypen und auch einige Beispiele menschlicher Ohren, um einen virtuellen Hörer erstellen zu können. Der Empfänger bzw. das virtuelle Mikrofon an der virtuellen Abhörposition besitzt beispielsweise eine Nierencharakteristik. In Abhängigkeit dieser Richtcharakteristik haben die Signale der Schallquellen einen unterschiedlichen Einfluss beim Empfänger. Entsprechend der Einfallsrichtung werden Signale unterschiedlich gedämpft.
Zusammengefasst bestehen einige Ausführungsbeispiele aus einem Mischpult zum Verarbeiten zumindest eines ersten und eines zweiten Quellsignals und zum Bereitstellen eines abgemischten Tonsignals, wobei das Mischpult einen Tonsignalerzeuger zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als das erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als das zweite Quellsignal aufgezeichnet wird, wobei der Tonsignalerzeuger umfasst: eine Eingangsschnittstelle, die ausgebildet ist, um das von dem ersten Mikrofon aufgenommene erste Quellsignal und das von dem zweiten Mikrofon aufgenommene zweite Quellsignal zu empfangen; einem Geometrieprozessor, der ausgebildet ist, um basierend auf der ersten Position und der virtuellen Abhörposition eine erste Geometrieinformation und um basierend auf der zweiten Position und der virtuellen Abhörposition eine zweite Geometrieinformation zu bestimmen; und einem Signalerzeuger zum Bereitstellen des Tonsignales, wobei der Signalerzeuger ausgebildet ist, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel zu kombinieren.
To calculate the volume of the sound sources at the receiver or at the virtual listening position, it is possible to define a directional characteristic for the receiver. This indicates how strongly the sound signal of a sound source is effective direction-dependent on the receiver. The directional characteristic may be a frequency-dependent filter or a pure volume value. FIG. 7 shows this schematically. The virtual receiver is provided with a direction vector which can be rotated by the user. A selection of simple ones Geometries are presented to the user as well as a selection of directional characteristics of popular microphone types and also some examples of human ears to create a virtual listener. The receiver or the virtual microphone at the virtual listening position has, for example, a cardioid characteristic. Depending on this directional characteristic, the signals of the sound sources have a different influence on the receiver. Depending on the direction of arrival signals are attenuated differently.
In summary, some embodiments consist of a mixer for processing at least a first and a second source signal and providing a mixed audio signal, the mixer comprising a tone signal generator for providing a sound signal for a virtual listening position within a room in which an acoustic scene of at least a first microphone at a first known location within the room as the first source signal and from at least one second microphone at a second known location within the room as the second source signal, the audio signal generator comprising: an input interface adapted to be from the first source signal Microphone received first source signal and received by the second microphone second source signal to receive; a geometry processor configured to determine first geometry information based on the first position and the virtual listening position, and determine second geometry information based on the second position and the virtual listening position; and one A signal generator for providing the sound signal, wherein the signal generator is adapted to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information.

Bei einigen Beispielen ist der Signalerzeuger ausgebildet ist, um eine erste Kombinationsregel zu verwenden, wenn das erste Mikrofon und das zweite Mikrofon einem ersten Mikrofontyp zugeordnet sind und um eine zweite, unterschiedliche Kombinationsregel zu verwenden, wenn das erste Mikrofon und das zweite Mikrofon einem zweiten Mikrofontyp zugeordnet sind.In some examples, the signal generator is configured to use a first combination rule when the first microphone and the second microphone are associated with a first microphone type and to use a second, different combination rule when the first microphone and the second microphone are a second microphone type assigned.

Bei einigen Beispielen wird gemäß der ersten Kombinationsregel ein erster Nahfeldradius r1 und gemäß der zweiten Kombinationsregel ein zweiter, unterschiedlicher Nahfeldradius r2 verwendet.In some examples, a first near field radius r 1 is used according to the first combination rule, and a second, different near field radius r 2 is used according to the second combination rule.

Bei einigen Beispielen ist der erste Mikrofontyp einem Mikrofon zugeordnet, das zur Aufnahme eines direkten Schallanteils der akustischen Szene dient, wobei der zweite Mikrofontyp einem Mikrofon zugeordnet ist, das der Aufnahme eines diffusen Schallanteils der akustischen Szene dient.In some examples, the first type of microphone is associated with a microphone for receiving a direct portion of sound of the acoustic scene, the second type of microphone being associated with a microphone for receiving a diffuse sound portion of the acoustic scene.

Bei einigen Beispielen umfasst die ersten Kombinationsregel das Bilden einer gewichteten Summe des ersten Quellsignals und des zweiten Quellsignals, mit einem ersten Gewicht g1 für das erste Quellsignal und einem zweiten Gewicht g2 für das zweite Quellsignal, wobei das erste Gewicht g1 für das erste Quellsignal proportional zu dem Inversen einer Potenz des ersten Abstandes d1 und das zweite Gewicht g2 für das zweite Quellsignal proportional zu dem inversen einer Potenz des zweiten Abstandes d2 ist.In some examples, the first combination rule comprises forming a weighted sum of the first source signal and the second source signal, having a first weight g 1 for the first source signal and a second weight g 2 for the second source signal, the first weight g 1 for the first source signal Source signal proportional to the inverse of a power of the first distance d 1 and the second weight g 2 for the second source signal is proportional to the inverse of a power of the second distance d 2 .

Bei einigen Beispielen umfasst die zweite Kombinationsregel das Bilden einer gewichteten Summe des ersten Quellsignals x1 und des zweiten Quellsignals x2, wobei die Gewichte g1 und g2 von der ersten Geometrieinformation und von der zweiten Geometrieinformation abhängig sind, wobei die Gewichte g1 und g2 für sämtliche möglichen Geometrieinformationen die Randbedingung erfüllen, dass eine Summe der Gewichte G = g1+g2 oder eine quadratische Summe G2 = g1 2 + g2 2 konstant, insbesondere 1 ist.In some examples, the second combination rule comprises forming a weighted sum of the first source signal x 1 and the second source signal x 2 , wherein the weights g 1 and g 2 are dependent on the first geometry information and the second geometry information, the weights g 1 and g 2 satisfy the boundary condition for all possible geometry information that a sum of the weights G = g 1 + g 2 or a quadratic sum G2 = g 1 2 + g 2 2 is constant, in particular 1.

Bei einigen Beispielen umfasst die zweite Kombinationsregel das Bilden einer Gewichteten Summe xvirt der Quellsignale x1 und x2 gemäß zumindest einer der folgenden Überblendregeln:

  • Überblendregel 1: xvirt1 = g1*x1 + * x2, wobei g2 =;
  • Überblendregel 2: xvirt2 = cos*x1 + sin*x2, wobei δ ∈ [0°;90°];
  • Uberblendregel 3: xvirt3 = g1*x1 + g2*x2, wobei tan θ tan θ 0 = g 1 g 2 g 1 + g 2
    Figure imgb0023
    und θ ∈ [0°; 90°];
  • Uberblendregel 4: xvirt4=g1*x1+g2*x2, wobei sin θ sin θ 0 = g 1 g 2 g 1 + g 2
    Figure imgb0024
    und θ ∈ [0°; 90°].
In some examples, the second combination rule comprises forming a weighted sum x virt of the source signals x 1 and x 2 according to at least one of the following blending rules:
  • Blend rule 1: x virt1 = g 1 * x 1 + * x 2 , where g 2 =;
  • Blending rule 2: x virt2 = cos * x 1 + sin * x 2 , where δ ∈ [0 °, 90 °];
  • Blend rule 3: x virt3 = g 1 * x1 + g 2 * x 2 , where tan θ tan θ 0 = G 1 - G 2 G 1 + G 2
    Figure imgb0023
    and θ ∈ [0 °; 90 °];
  • Blend rule 4: x virt4 = g 1 * x 1 + g 2 * x 2 , where sin θ sin θ 0 = G 1 - G 2 G 1 + G 2
    Figure imgb0024
    and θ ∈ [0 °; 90 °].

Bei einigen Beispielen umfasst die Kombinationsregel ferner das Bilden einer Gewichteten Summe xvirt aus den mit einem Korrelationskoeffizienten σx1x2 für eine Korrelation zwischen dem ersten Quellsignal x1 und dem zweiten Quellsignal x2 gewichteten Signale xvirt1 und xvirt23 nach folgender Regel: x virt = σ x 1 x 2 x virt 1 + 1 σ x 1 x 2 x virt 23

Figure imgb0025
wobei xvirt23 entweder xvirt2 oder xvirt3 ist.In some examples, the combination rule further comprises forming a weighted sum x virt from the signals x virt1 and x virt23 weighted with a correlation coefficient σ x1x2 for a correlation between the first source signal x 1 and the second source signal x 2 according to the following rule: x virt = σ x 1 x 2 * x virt 1 + 1 - σ x 1 x 2 * x virt 23
Figure imgb0025
where x virt23 is either x virt2 or x virt3 .

Bei einigen Beispielen wird gemäß der zweiten Kombinationsregel bei dem Bilden der gewichteten Summe ferner ein drittes Signal x3 mit einem dritten Gewicht g3 berücksichtigt, wobei die Positionen der den Quellsignalen x1, x2 und x3 zugeordneten Mikrofone eine dreieckige Fläche aufspannen, innerhalb derer sich die virtuelle Abhörposition befindet und wobei die Gewichte g1, g2 und g3 für jedes der Quellsignale x1, x2 und x3 jeweils basierend auf einer senkrechten Projektion der virtuelle Abhörposition auf diejenige Höhe des Dreiecks bestimmt werden, die der Position des dem jeweiligen Quellsignal zugeordneten Mikrofons zugeordnet ist.In some examples, according to the second combination rule, in forming the weighted sum, a third signal x 3 having a third weight g 3 is also taken into account, wherein the positions of the microphones associated with the source signals x 1 , x 2, and x 3 span a triangular area within of which the virtual interception position is located and wherein the weights g 1 , g 2 and g 3 for each of the source signals x 1 , x 2 and x 3 are respectively determined based on a perpendicular projection of the virtual interception position to the height of the triangle corresponding to the position associated with the respective source signal associated microphone.

Einige Beispiele sind ein Tonsignalerzeuger zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition basierend auf einem ersten Quellsignal und einem zweiten Quellsignal, umfassend: einen Geometrieprozessor, der ausgebildet ist, um basierend auf einer dem ersten Quellsignal zugeordneten ersten Position eine erste Geometrieinformation und um basierend auf einer dem zweiten Quellsignal zugeordneten zweiten Position eine zweite Geometrieinformation zu bestimmen; und einen Signalerzeuger zum Bereitstellen des Tonsignales, wobei der Signalerzeuger ausgebildet ist, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel zu kombinieren, wobei gemäß der Kombinationsregel ein erstes Teilsignal xvirt1 gemäß einer ersten Überblendregel und ein zweites Teilsignal xvirt2 gemäß einer zweiten Überblendregel gebildet wird, und wobei das Bereitstellen des Tonsignales ferner das Bilden einer gewichteten Summe xvirt aus den mit einem Korrelationskoeffizienten σx1x2 für eine Korrelation zwischen dem ersten Quellsignal x1 und dem zweiten Quellsignal x2 gewichteten Signalen xvirt1 und xvirt2 umfasst.Some examples are a tone signal generator for providing a virtual intercept position tone signal based on a first source signal and a second source signal, comprising: a geometry processor configured to obtain first geometry information based on a first position associated with the first source signal; to determine second geometry information associated with the second source signal; and a signal generator for providing the audio signal, wherein the signal generator is formed, at least the first source signal and to combine the second source signal according to a combination rule using the first geometry information and the second geometry information , wherein according to the combination rule, a first sub-signal x virt1 is formed according to a first cross-fade rule and a second sub-signal x virt2 according to a second cross-fade rule , and wherein the providing of the audio signal further comprising forming a weighted sum x virt from the signals x virt1 and x virt2 weighted with a correlation coefficient σ x1x2 for a correlation between the first source signal x 1 and the second source signal x 2 .

Bei einigen Beispielen eines Tonsignalerzeugers wird das erste Teilsignal xvirt1 unter Verwendung folgender ersten Überblendregel: x virt 1 = g 1 * x 1 + * x 2 , wobei g 2 = ;

Figure imgb0026
wobei g2 =; und das zweite Teilsignal xvirt2 unter Verwendung folgender Überblendregel: x virt 2 = cos * x 1 + sin * x 2 ,
Figure imgb0027
wobei δ ∈ [0°;90°] bereitgestellt, wobei das Bereitstellen der gewichteten Summe ferner folgende Berechnung umfasst: x virt = σ x 1 x 2 x virt 1 + 1 σ x 1 x 2 x virt 2
Figure imgb0028
In some examples of a tone signal generator , the first sub-signal x virt1 is made using the following first cross-fade rule : x virt 1 = G 1 * x 1 + * x 2 . in which G 2 = ;
Figure imgb0026
where g 2 =; and the second sub-signal x virt2 using the following blending rule : x virt 2 = cos * x 1 + sin * x 2 .
Figure imgb0027
wherein δ ∈ [0 °; 90 °], wherein providing the weighted sum further comprises the following calculation: x virt = σ x 1 x 2 * x virt 1 + 1 - σ x 1 x 2 * x virt 2
Figure imgb0028

Einige Beispiele sind ein Tonsignalerzeuger zum Bereitstellen eines Tonsignales für eine virtuelle Abhörposition innerhalb eines Raumes, in dem eine akustische Szene von zumindest einem ersten Mikrofon an einer ersten bekannten Position innerhalb des Raumes als ein erstes Quellsignal und von zumindest einem zweiten Mikrofon an einer zweiten bekannten Position innerhalb des Raumes als ein zweites Quellsignal aufgezeichnet wird, umfassend: eine Eingangsschnittstelle, die ausgebildet ist, um das von dem ersten Mikrofon aufgenommene erste Quellsignal und das von dem zweiten Mikrofon aufgenommene zweite Quellsignal zu empfangen; einem Geometrieprozessor, der ausgebildet ist, um basierend auf der ersten bekannten Position und der virtuellen Abhörposition eine einen ersten Abstand zwischen der ersten bekannten Position und der virtuellen Abhörposition umfassende erste Geometrieinformation und um basierend auf der zweiten bekannten Position und der virtuellen Abhörposition eine einen zweiten Abstand zwischen der zweiten bekannten Position und der virtuellen Abhörposition umfassende zweite Geometrieinformation zu bestimmen; und einem Signalerzeuger zum Bereitstellen des Tonsignales, wobei der Signalerzeuger ausgebildet ist, zumindest das erste Quellsignal und das zweite Quellsignal gemäß einer die erste Geometrieinformation und die zweite Geometrieinformation verwendenden Kombinationsregel zu kombinieren.Some examples are a tone signal generator for providing a sound signal for a virtual listening position within a room, in which an acoustic scene of at least a first microphone at a first known position within the room as a first source signal and at least a second microphone at a second known position is recorded within the room as a second source signal, comprising: an input interface configured to receive the first source signal received by the first microphone and the second source signal received by the second microphone; a geometry processor configured to determine, based on the first known position and the virtual listening position, first geometry information comprising a first distance between the first known position and the virtual listening position and a second distance based on the second known position and the virtual listening position determine second geometry information comprising between the second known position and the virtual listening position; and a signal generator for providing the sound signal, wherein the signal generator is configured to combine at least the first source signal and the second source signal according to a combination rule using the first geometry information and the second geometry information.

Die in der vorstehenden Beschreibung, den nachfolgenden Ansprüchen und den beigefügten Figuren offenbarten Merkmale können sowohl einzeln wie auch in beliebiger Kombination für die Verwirklichung eines Ausführungsbeispiels in ihren verschiedenen Ausgestaltungen von Bedeutung sein und implementiert werden.The features disclosed in the foregoing description, the appended claims and the appended figures may be taken to be and effect both individually and in any combination for the realization of an embodiment in its various forms.

Obwohl manche Aspekte im Zusammenhang mit einem Tonsignalerzeuger beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement eines Tonsignalerzeugers auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals eines entsprechenden Tonsignalerzeugers dar.Although some aspects have been described in the context of a tone signal generator, it will be understood that these aspects also constitute a description of the corresponding method such that a block or device of a tone signal generator is also to be understood as a corresponding method step or feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding tone signal generator.

Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-Ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einer programmierbaren Hardwarekomponente derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software. The implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-Ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals, which can cooperate with a programmable hardware component or cooperate such that the respective method is performed.

Eine programmierbare Hardwarekomponente kann durch einen Prozessor, einen Computerprozessor (CPU = Central Processing Unit), einen Grafikprozessor (GPU = Graphics Processing Unit), einen Computer, ein Computersystem, einen anwendungsspezifischen integrierten Schaltkreis (ASIC = Application-Specific Integrated Circuit), einen integrierten Schaltkreis (IC = Integrated Circuit), ein Ein-Chip-System (SOC = System on Chip), ein programmierbares Logikelement oder ein feldprogrammierbares Gatterarray mit einem Mikroprozessor (FPGA = Field Programmable Gate Array) gebildet sein.A programmable hardware component may be integrated by a processor, a central processing unit (CPU), a graphics processing unit (GPU), a computer, a computer system, an application-specific integrated circuit (ASIC) Circuit (IC = Integrated Circuit), a system on chip (SOC) system, a programmable logic element or a field programmable gate array with a microprocessor (FPGA = Field Programmable Gate Array) may be formed.

Das digitale Speichermedium kann daher maschinen- oder computerlesbar sein. Manche Ausführungsbeispiele umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem oder einer programmierbare Hardwarekomponente derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird. Ein Ausführungsbeispiel ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Programm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.The digital storage medium may therefore be machine or computer readable. Thus, some embodiments include a data carrier having electronically readable control signals capable of interacting with a programmable computer system or programmable hardware component such that one of the methods described herein is performed. One embodiment is thus a data carrier (or a digital storage medium or a computer readable medium) on which the program is recorded for performing any of the methods described herein.

Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Programm, Firmware, Computerprogramm oder Computerprogrammprodukt mit einem Programmcode oder als Daten implementiert sein, wobei der Programmcode oder die Daten dahin gehend wirksam ist bzw. sind, eines der Verfahren durchzuführen, wenn das Programm auf einem Prozessor oder einer programmierbaren Hardwarekomponente abläuft. Der Programmcode oder die Daten kann bzw. können beispielsweise auch auf einem maschinenlesbaren Träger oder Datenträger gespeichert sein. Der Programmcode oder die Daten können unter anderem als Quellcode, Maschinencode oder Bytecode sowie als anderer Zwischencode vorliegen.In general, embodiments of the present invention may be implemented as a program, firmware, computer program, or computer program product having program code or data, the program code or data operative to perform one of the methods when the program resides on a processor or a processor programmable hardware component expires. The program code or the data can also be stored, for example, on a machine-readable carrier or data carrier. The program code or the data may be present, inter alia, as source code, machine code or bytecode as well as other intermediate code.

Ein weiteres Ausführungsbeispiel ist ferner ein Datenstrom, eine Signalfolge oder eine Sequenz von Signalen, der bzw. die das Programm zum Durchführen eines der hierin beschriebenen Verfahren darstellt bzw. darstellen. Der Datenstrom, die Signalfolge oder die Sequenz von Signalen kann bzw. können beispielsweise dahin gehend konfiguriert sein, um über eine Datenkommunikationsverbindung, beispielsweise über das Internet oder ein anderes Netzwerk, transferiert zu werden. Ausführungsbeispiele sind so auch Daten repräsentierende Signalfolgen, die für eine Übersendung über ein Netzwerk oder eine Datenkommunikationsverbindung geeignet sind, wobei die Daten das Programm darstellen.Another embodiment is further a data stream, a signal sequence, or a sequence of signals that represents the program for performing any of the methods described herein. The data stream, the signal sequence or the sequence of signals can be configured, for example, to be transferred via a data communication connection, for example via the Internet or another network. Embodiments are also data representing signal sequences that are suitable for transmission over a network or a data communication connection, the data representing the program.

Ein Programm gemäß einem Ausführungsbeispiel kann eines der Verfahren während seiner Durchführung beispielsweise dadurch umsetzen, dass dieses Speicherstellen ausliest oder in diese ein Datum oder mehrere Daten hinein schreibt, wodurch gegebenenfalls Schaltvorgänge oder andere Vorgänge in Transistorstrukturen, in Verstärkerstrukturen oder in anderen elektrischen, optischen, magnetischen oder nach einem anderen Funktionsprinzip arbeitenden Bauteile hervorgerufen werden. Entsprechend können durch ein Auslesen einer Speicherstelle Daten, Werte, Sensorwerte oder andere Informationen von einem Programm erfasst, bestimmt oder gemessen werden. Ein Programm kann daher durch ein Auslesen von einer oder mehreren Speicherstellen Größen, Werte, Messgrößen und andere Informationen erfassen, bestimmen oder messen, sowie durch ein Schreiben in eine oder mehrere Speicherstellen eine Aktion bewirken, veranlassen oder durchführen sowie andere Geräte, Maschinen und Komponenten ansteuern.For example, a program according to one embodiment may implement one of the methods during its execution by, for example, reading or writing one or more data into memory locations, thereby optionally switching operations or other operations in transistor structures, amplifier structures, or others electrical, optical, magnetic or operating according to another operating principle components are caused. Accordingly, by reading a memory location, data, values, sensor values or other information can be detected, determined or measured by a program. A program can therefore acquire, determine or measure quantities, values, measured variables and other information by reading from one or more storage locations, as well as effect, initiate or execute an action by writing to one or more storage locations and control other devices, machines and components ,

Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.The embodiments described above are merely illustrative of the principles of the present invention. It will be understood that modifications and variations of the arrangements and details described herein will be apparent to others of ordinary skill in the art. Therefore, it is intended that the invention be limited only by the scope of the appended claims and not by the specific details presented in the description and explanation of the embodiments herein.

Claims (15)

  1. A mixing console (300) for processing at least a first and a second source signal and for providing a mixed audio signal, wherein the mixing console comprises an audio signal generator (100) for providing an audio signal (120) for a virtual listening position (202) within a space (200), in which an acoustic scene is recorded by at least a first microphone (204) at a first known position within the space (200) as the first source signal (210) and by at least a second microphone (206) at a second known position within the space (200) as the second source signal (212), wherein the audio signal generator (100) comprises:
    an input interface (102) configured to receive the first source signal (210) recorded by the first microphone (204) and the second source signal (212) recorded by the second microphone (206);
    a geometry processor (104) configured to determine a first piece of geometry information (110) based on the first position and the virtual listening position (202), and a second piece of geometry information (112) based on the second position and the virtual listening position (202); and
    a signal generator (106) for providing the audio signal (120), wherein the signal generator (106) is configured to combine at least the first source signal (210) and the second source signal (212) according to a combination rule using the first piece of geometry information (110) and the second piece of geometry information (112).
  2. The mixing console (300) of claim 1, wherein the mixing console further comprises a user interface (306) configured to display a graphic representation of the positions of a plurality of microphones comprising at least the first and the second microphones and of the virtual listening position.
  3. The mixing console (300) of claim 2, wherein the user interface (306) further comprises an input device configured to associate a microphone type from a group comprising of at least a first microphone type and a second microphone type with each of the microphones, wherein a microphone type corresponds to one kind of the sound field recorded using the microphone.
  4. The mixing console (300) of one of claims 2 to 3, wherein the user interface (306) further comprises an input device configured to input or change at least the virtual listening position (202), particularly by influencing the graphic representation of the virtual listening position.
  5. The mixing console (300) of one of the preceding claims, wherein the first piece of geometry information (110) comprises a first distance between the first position and the virtual listening position, and the second piece of geometry information (112) comprises a second distance between the second position and the virtual listening position (202).
  6. The mixing console (300) of claim 5, wherein the combination rule comprises forming a weighted sum of the first source signal (210) and the second source signal (212), wherein the first source signal (210) is weighted by a first weight g1 and the second source signal (212) is weighted by a second weight g2.
  7. The mixing console (300) of claim 6, wherein the first weight g1 for the first source signal (210) is proportional to the inverse of a power of the first distance d1 and the second weight g2 for the second source signal (212) is proportional to the inverse of a power of the second distance d2.
  8. The mixing console (300) of claim 7, wherein the first weight g1 for the first source signal (210) is proportional to the inverse of the first distance d1 which is multiplied by a near-field radius r1 of the first microphone, and the second weight g2 for the second source signal (212) is proportional to the inverse of the second distance d2 which is multiplied by a near-field radius r2 of the second microphone.
  9. The mixing console (300) of claim 6, wherein the first weight g1 for the first source signal (210) is zero if the first distance d1 is greater than a predetermined listening radius R, and the second weight g2 for the second source signal (212) is zero if the second distance d2 is greater than the predetermined listening radius R, wherein the first weight g1 and the second weight g2 are otherwise 1.
  10. The mixing console (300) of any one of the preceding claims, wherein, according to the combination rule, either the first or the second source signal (212) is delayed by a delay time if a comparison of the first piece of geometry information and the second piece of geometry information meets a predetermined criterion.
  11. The mixing console (300) of claim 10, wherein the predetermined criterion is met if a difference between the first distance and the second distance is greater than an operable minimum distance.
  12. The mixing console (300) of any one of the preceding claims, wherein, according to the combination rule, the signal from the group of the first and the second source signals, which comprises a shorter signal propagation time from the microphone associated with the signal to the virtual listening position, is delayed such that the delayed signal propagation time corresponds to the signal propagation time from the microphone associated with the other signal of the group to the virtual listening position.
  13. The mixing console (300) of any one of claims 6 to 12, wherein the first piece of geometry information (110) further comprises a first piece of directional information on a direction between a preferred direction (280) associated with the virtual listening position and the first position, and a second piece of directional information on a direction between the preferred direction and the second position, wherein the first weight g1 is proportional to a first directional factor and wherein the second weight g2 is proportional to a second directional factor, wherein the first direction factor depends on the first piece of directional information and on a directivity associated with the virtual listening position, and the second directional factor depends on the second piece of directional information and the directivity.
  14. A method for providing an audio signal for a virtual listening position (202) within a space in which an acoustic scene is recorded by at least a first microphone at a first known position within the space as a first source signal and by at least a second microphone at a second known position within the space as a second source signal, comprising:
    Receiving (500) the first source signal recorded by the first microphone and the second source signal recorded by the second microphone;
    Determining (502) a first piece of geometry information comprising a first distance between the first known position and the virtual listening position (202) based on the first position and the virtual listening position, and a second piece of geometry information (112) comprising a second distance between the second known position and the virtual listening position (202) based on the second position and the virtual listening position; and
    Combining (504) at least the first source signal and the second source signal according to a combination rule using the first piece of geometry information (110) and the second piece of geometry information (112).
  15. A computer program for executing the method of claim 14 if the computer program runs on a programmable hardware component.
EP14729613.1A 2013-05-24 2014-05-21 Mixing desk, method and computer program for providing a sound signal Not-in-force EP3005737B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013105375.0A DE102013105375A1 (en) 2013-05-24 2013-05-24 A sound signal generator, method and computer program for providing a sound signal
PCT/EP2014/060481 WO2014187877A2 (en) 2013-05-24 2014-05-21 Mixing desk, sound signal generator, method and computer program for providing a sound signal

Publications (2)

Publication Number Publication Date
EP3005737A2 EP3005737A2 (en) 2016-04-13
EP3005737B1 true EP3005737B1 (en) 2017-01-11

Family

ID=50933143

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14729613.1A Not-in-force EP3005737B1 (en) 2013-05-24 2014-05-21 Mixing desk, method and computer program for providing a sound signal

Country Status (7)

Country Link
US (1) US10075800B2 (en)
EP (1) EP3005737B1 (en)
JP (1) JP6316407B2 (en)
KR (1) KR101820224B1 (en)
CN (1) CN105264915B (en)
DE (1) DE102013105375A1 (en)
WO (1) WO2014187877A2 (en)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3209034A1 (en) * 2016-02-19 2017-08-23 Nokia Technologies Oy Controlling audio rendering
CN109891502B (en) * 2016-06-17 2023-07-25 Dts公司 Near-field binaural rendering method, system and readable storage medium
EP3264734B1 (en) * 2016-06-30 2022-03-02 Nokia Technologies Oy Controlling audio signal parameters
US10701508B2 (en) * 2016-09-20 2020-06-30 Sony Corporation Information processing apparatus, information processing method, and program
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
EP3343348A1 (en) * 2016-12-30 2018-07-04 Nokia Technologies Oy An apparatus and associated methods
IT201700040732A1 (en) * 2017-04-12 2018-10-12 Inst Rundfunktechnik Gmbh VERFAHREN UND VORRICHTUNG ZUM MISCHEN VON N INFORMATIONSSIGNALEN
US10880649B2 (en) 2017-09-29 2020-12-29 Apple Inc. System to move sound into and out of a listener's head using a virtual acoustic system
CA3219566A1 (en) 2017-10-04 2019-04-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to dirac based spatial audio coding
US10609503B2 (en) 2018-04-08 2020-03-31 Dts, Inc. Ambisonic depth extraction
US20200304933A1 (en) * 2019-03-19 2020-09-24 Htc Corporation Sound processing system of ambisonic format and sound processing method of ambisonic format
EP3879702A1 (en) * 2020-03-09 2021-09-15 Nokia Technologies Oy Adjusting a volume level
US20230254638A1 (en) * 2020-08-05 2023-08-10 Hewlett-Packard Development Company, L.P. Peripheral microphones
CN112951199B (en) * 2021-01-22 2024-02-06 杭州网易云音乐科技有限公司 Audio data generation method and device, data set construction method, medium and equipment
KR102559015B1 (en) * 2021-10-26 2023-07-24 주식회사 라온에이엔씨 Actual Feeling sound processing system to improve immersion in performances and videos
CN113889125B (en) * 2021-12-02 2022-03-04 腾讯科技(深圳)有限公司 Audio generation method and device, computer equipment and storage medium
WO2023166109A1 (en) * 2022-03-03 2023-09-07 Kaetel Systems Gmbh Device and method for rerecording an existing audio sample
CN117854520A (en) * 2022-10-09 2024-04-09 华为技术有限公司 Sound mixing method and related device

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
EP1685554A1 (en) * 2003-10-09 2006-08-02 TEAC America, Inc. Method, apparatus, and system for synthesizing an audio performance using convolution at multiple sample rates
JP4181511B2 (en) * 2004-02-09 2008-11-19 日本放送協会 Surround audio mixing device and surround audio mixing program
JP2006074589A (en) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd Acoustic processing device
WO2008008417A2 (en) * 2006-07-12 2008-01-17 The Stone Family Trust Of 1992 Microphone bleed simulator
US20080253547A1 (en) * 2007-04-14 2008-10-16 Philipp Christian Berndt Audio control for teleconferencing
DE102007052154A1 (en) * 2007-10-31 2009-05-07 Robert Bosch Gmbh Audio module for acoustic monitoring of a surveillance area, monitoring system for the surveillance area, methods for creating a sound environment and computer program
JP5403896B2 (en) * 2007-10-31 2014-01-29 株式会社東芝 Sound field control system
DE102008004674A1 (en) * 2007-12-17 2009-06-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal recording with variable directional characteristics
EP2357846A1 (en) * 2009-12-22 2011-08-17 Harman Becker Automotive Systems GmbH Group-delay based bass management
US9107018B2 (en) * 2010-07-22 2015-08-11 Koninklijke Philips N.V. System and method for sound reproduction
JP5198530B2 (en) * 2010-09-28 2013-05-15 株式会社東芝 Moving image presentation apparatus with audio, method and program
ITTO20110890A1 (en) * 2011-10-05 2013-04-06 Inst Rundfunktechnik Gmbh INTERPOLATIONSSCHALTUNG ZUM INTERPOLIEREN EINES ERSTEN UND ZWEITEN MIKROFONSIGNALS.
US9131305B2 (en) * 2012-01-17 2015-09-08 LI Creative Technologies, Inc. Configurable three-dimensional sound system
US9258647B2 (en) * 2013-02-27 2016-02-09 Hewlett-Packard Development Company, L.P. Obtaining a spatial audio signal based on microphone distances and time delays

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
WO2014187877A3 (en) 2015-02-19
US10075800B2 (en) 2018-09-11
KR20160012204A (en) 2016-02-02
US20160119734A1 (en) 2016-04-28
JP6316407B2 (en) 2018-04-25
WO2014187877A2 (en) 2014-11-27
CN105264915A (en) 2016-01-20
DE102013105375A1 (en) 2014-11-27
EP3005737A2 (en) 2016-04-13
KR101820224B1 (en) 2018-02-28
CN105264915B (en) 2017-10-24
JP2016522640A (en) 2016-07-28

Similar Documents

Publication Publication Date Title
EP3005737B1 (en) Mixing desk, method and computer program for providing a sound signal
DE19634155B4 (en) Method for simulating the acoustic quality of a room and associated audio digital processor
EP1872620B9 (en) Apparatus and method for controlling a plurality of loudspeakers by means of a graphic user interface
EP1878308B1 (en) Device and method for generation and processing of sound effects in spatial audio reproduction systems using a graphical user interface
DE102010030534A1 (en) Device for changing an audio scene and device for generating a directional function
EP0905933A2 (en) Method and system for mixing audio signals
DE102012017296B4 (en) Generation of multichannel sound from stereo audio signals
WO2005060307A1 (en) Device and method for producing a low-frequency channel
EP2754151B1 (en) Device, method and electro-acoustic system for prolonging a reverberation period
DE102016101316A1 (en) Information processing method and electronic device
DE102021103210A1 (en) Surround sound playback based on room acoustics
DE19911507A1 (en) Method of improving three-dimensional sound reproduction enables more effective 3D sound processing to be achieved with minimisation of high frequency components of a virtual sound source positioned behind the ear
DE10318191A1 (en) Producing and using transfer function for electroacoustic device such as hearing aid, by generating transfer function from weighted base functions and storing
DE102018120804B4 (en) Method and device for automatically configuring an audio output system and non-volatile storage medium
EP3314915A1 (en) Method for sound reproduction in reflection environments, in particular in listening rooms
DE19900961A1 (en) Method and device for reproducing multi-channel sound signals
DE102018102743A1 (en) Real Sound Transmission
DE102011108788B4 (en) Method for processing an audio signal, audio reproduction system and processing unit for processing audio signals
EP2503799B1 (en) Method and system for calculating synthetic head related transfer functions by means of virtual local sound field synthesis
AT413010B (en) DEVICE FOR TRANSFER OF SPATIAL SOUND SIGNALS
DE102022129642A1 (en) Method for direction-dependent correction of the frequency response of sound wave fronts
DE102016115449B4 (en) Method for generating a spatial sound from an audio signal, use of the method and computer program product
EP1900250B1 (en) Electroacoustic method
DE102018216604A1 (en) System for transmitting sound into and out of the head of a listener using a virtual acoustic system
DE102013100651A1 (en) Method for distributing audio signal to multiple audio output devices, such as loudspeakers, involves displaying two output symbols representing audio output device in each case, on display device, and displaying audio symbol

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160104

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20160921

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: GRANT OF PATENT IS INTENDED

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE PATENT HAS BEEN GRANTED

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 862254

Country of ref document: AT

Kind code of ref document: T

Effective date: 20170115

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502014002505

Country of ref document: DE

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20170111

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 4

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170412

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170411

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170511

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170531

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170511

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170411

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502014002505

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

26N No opposition filed

Effective date: 20171012

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170531

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170531

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170521

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20170531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170521

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20170531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20140521

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170111

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 862254

Country of ref document: AT

Kind code of ref document: T

Effective date: 20190521

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190521

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20210525

Year of fee payment: 8

Ref country code: FR

Payment date: 20210521

Year of fee payment: 8

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20210526

Year of fee payment: 8

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502014002505

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20220521

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220531

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220521

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20221201