EP3044972B1 - Device and method for the decorrelation of loudspeaker signals - Google Patents

Device and method for the decorrelation of loudspeaker signals Download PDF

Info

Publication number
EP3044972B1
EP3044972B1 EP14758142.5A EP14758142A EP3044972B1 EP 3044972 B1 EP3044972 B1 EP 3044972B1 EP 14758142 A EP14758142 A EP 14758142A EP 3044972 B1 EP3044972 B1 EP 3044972B1
Authority
EP
European Patent Office
Prior art keywords
virtual source
source object
meta information
time instant
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Not-in-force
Application number
EP14758142.5A
Other languages
German (de)
French (fr)
Other versions
EP3044972A2 (en
Inventor
Martin Schneider
Walter Kellermann
Andreas Franck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of EP3044972A2 publication Critical patent/EP3044972A2/en
Application granted granted Critical
Publication of EP3044972B1 publication Critical patent/EP3044972B1/en
Not-in-force legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/02Circuits for transducers, loudspeakers or microphones for preventing acoustic reaction, i.e. acoustic oscillatory feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/04Circuits for transducers, loudspeakers or microphones for correcting frequency response
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/05Application of the precedence or Haas effect, i.e. the effect of first wavefront, in order to improve sound-source localisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/07Synergistic effects of band splitting and sub-band processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/11Application of ambisonics in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/13Application of wave-field synthesis in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation

Definitions

  • the invention relates to an apparatus and method for decorrelating loudspeaker signals by changing the reproduced acoustic scene.
  • a three-dimensional listening experience it may be intended to give the respective listener of an audio piece or viewer of a film a three-dimensional acoustic reproduction a more realistic listening experience by, for example, conveys impressions acoustically, the listener or viewer would be within the reproduced acoustic scene.
  • Psychoacoustic effects can also be used for this.
  • Wavefield Synthesis or Higher Order Ambisonics algorithms are used to generate a particular sound field with a number or plurality of speakers within a playback room.
  • the loudspeakers can be controlled such that the loudspeakers generate wave fields which correspond in whole or in part to acoustic sources which are arranged at a virtually arbitrary location of a reproduced acoustic scene.
  • Wave Field Synthesis or Higher Order Ambisonics (HOA) provides the listener with a high quality spatial listening experience by using a large number of propagation channels to spatially represent virtual acoustic source objects.
  • these rendering systems can be supplemented with spatial capture systems to allow for additional applications, such as interactive applications, or to enhance the quality of the playback.
  • the combination of the loudspeaker array, the in-room volume such as a display room and the microphone array is referred to as Speaker Housing Microphone System (LEMS) and identified in many applications by simultaneous observation of the loudspeaker signals and the microphone signals.
  • LEMS Speaker Housing Microphone System
  • an identification of a loudspeaker enclosure microphone system (Loudspeaker Enclosure Microphone System), or LEMS may be necessary.
  • this problem may be due to the ambiguity problem (i.e. be particularly challenging because of an underdetermined system. If fewer virtual sources are displayed in an acoustic reproduction scene than the loudspeaker system comprises, the ambiguity problem can arise. In such a case, the system can not be uniquely identified, and methods or methods involving system identification suffer from poor or poor robustness to varying correlation characteristics of the loudspeaker signals.
  • a current remedy against the ambiguity problem involves modifying the loudspeaker signals (i.e., a decorrelation) so that the system or LEMS can be uniquely identified and / or increase the robustness under given conditions.
  • a decorrelation i.e., a decorrelation
  • most known approaches may reduce audio quality or possibly interfere with the synthesized wave field if used in wave-field synthesis.
  • the object of the present invention is therefore to provide an apparatus and a method for generating a plurality of loudspeaker signals, which enables an improved system identification.
  • the core idea of the present invention is to have recognized that the above object can be achieved in that decorrelated loudspeaker signals can be generated by time-variant modification of meta-information of a virtual source object, such as the position or type of the virtual source object.
  • an apparatus for generating a plurality of loudspeaker signals comprises a modifier configured to time varying modify meta information of a virtual source object.
  • the virtual source object comprises the meta-information and a source signal.
  • the meta-information determines characteristics such as a position or type of the virtual source object.
  • the position or type such as a radiation characteristic
  • the apparatus further includes a renderer configured to surround the virtual source object and the modified ones Transfer meta information into a variety of loudspeaker signals.
  • a decorrelation of the loudspeaker signals can be achieved, so that a stable, ie robust, system identification can be provided, based on the improved system identification a more robust LRE or to enable a more robust AEC, since the robustness of the LRE and / or AEC depends on the robustness of the system identification.
  • a more robust LRE or a more robust AEC can be used for improved sound quality of the speaker signals.
  • An advantage of this embodiment is that decorrelated loudspeaker signals can be generated by means of the renderer based on the time-varying modified meta-information, so that an additional decorrelation by an additional filtering or an addition of noise signals can be dispensed with.
  • An alternative embodiment provides a method for generating a plurality of loudspeaker signals based on a source virtual object having a source signal and meta information defining the location or type of the source virtual object.
  • the method comprises time-varying the meta-information by means of defined rules, which are defined in the further features of claim 7, and converting the virtual source object and the modified meta-information into a plurality of loudspeaker signals.
  • An advantage of this embodiment is that by the modification of the meta information already decorrelated loudspeaker signals are generated, so that compared to a subsequent decorrelation of correlated loudspeaker signals increased reproduction quality of the acoustic playback scene can be achieved because an addition of subsequent noise signals or an application of non-linear operations can be avoided.
  • Fig. 1 shows a device 10 for generating a plurality of decorrelated speaker signals based on virtual source objects 12a, 12b and / or 12c.
  • a virtual source object can be any type of noise-emitting object, body, or person, such as one or more people, musical instruments, animals, plants, devices, or machines.
  • the virtual source objects 12a-c may be elements of an acoustic playback scene, such as an orchestra performing a performance.
  • a virtual source object may be, for example, an instrument or a group of instruments.
  • meta information may also be associated with a virtual source object.
  • the meta-information may include a location of the virtual source object within the acoustic playback scene reproduced by a playback system. For example, this may mean a position of a respective instrument within the reproduced orchestra.
  • the meta-information may alternatively or additionally also include a directional or emission characteristic of the respective virtual source object, such as information about the direction in which the respective source signal of the instrument is played. For example, if an instrument of an orchestra is a trumpet, the trumpet sound is preferably radiated in a certain direction (the direction in which the bell is pointed). Alternatively, if the instrument is a guitar, for example, the guitar radiates in a wider viewing angle compared to the trumpet.
  • the meta-information of a virtual source object may include the emission characteristic and the orientation of the emission characteristic in the reproduced reproduction scene.
  • the meta-information may alternatively or additionally also include a spatial extent of the virtual source object in the reproduced playback scene. Based on the meta-information and the source signal, a virtual source object can be described two- or three-dimensionally in space.
  • a reproduced playback scene can also be, for example, an audio part of a movie, ie the background noise of the movie.
  • a reproduced playback scene may be wholly or partially coincident with a movie scene, such that the virtual source object may be an object positioned in the playback room and directionally speaking, or an object moving in the room of the reproduced scene, such as a train or a car, emitting sounds. can be.
  • Device 10 is designed to generate loudspeaker signals for driving loudspeakers 14a-e.
  • the speakers 14a-e may be placed on or in a playback room 16.
  • the playback room 16 may be, for example, a concert or cinema hall in which a listener or viewer 17 may be located.
  • Apparatus 10 includes a modifier 18 configured to time varying the meta information of one or more of the virtual source objects 12a-c.
  • the modifier 18 is further configured to individually store the metadata of multiple virtual source objects, i. for each virtual source object 12a-c, or for multiple virtual source objects. Modification
  • the modifier 18 is configured to modify the position of the virtual source object 12a-c in the reproduced playback scene or the radiation characteristic of the virtual source object 12a-c.
  • Apparatus 10 includes a renderer 22 configured to translate the source signals of the virtual source objects 12a-c and the modified meta-information into a plurality of loudspeaker signals.
  • the renderer 22 includes component generators 23a-c and signal component renderers 24a-e.
  • the renderer 22 is designed to use the component generators 23a-c to generate the source signal of the virtual source object 12a-c and the modified meta-information into signal components such that a wave field can be generated by the loudspeakers 14a-e and the wave source field represents the virtual source object 12a-c at a position 25 within the reproduced acoustic reproduction scene.
  • the reproduced acoustic reproduction scene may be at least partially disposed inside or outside of the reproduction room 16.
  • the signal component renderers 24a-e are configured to render the signal components of one or more virtual source objects into speaker signals for driving the speakers 14a-e.
  • a plurality of speakers of, for example, more than 10, 20, 30, 50, 300 or 500 arranged or attachable.
  • the renderer can be described as a Multiple Input (Mimo) multiple output (loudspeaker signals) MIMO system that converts input signals of one or more virtual source objects into loudspeaker signals.
  • the component generators and / or the signal component processors may be arranged in two or more separate components.
  • the renderer 22 may alternatively or additionally implement a pre-equalization such that in the reproduction room 16 the reproduced reproduction scene is rendered as if it were reproduced in a free-field environment or other environment such as a concert hall, i. the renderer 22 may partially or completely compensate for distortions of acoustic signals caused by the playback room 16, such as by pre-equalization.
  • the renderer 22 is designed to generate loudspeaker signals for the virtual source object 12a-c to be displayed.
  • a loudspeaker 14a-e may at one time reproduce drive signals based on a plurality of virtual source objects 12a-c.
  • Device 10 comprises microphones 26a-d which may be attached to or in the display room 16 so that the wave fields generated by the loudspeakers 14a-e can be detected by the microphones 26a-d.
  • a system calculator 28 of the apparatus 10 is configured to estimate a transmission characteristic of the playback room 16 based on the microphone signals of the plurality of microphones 26a-d and the loudspeaker signals.
  • a transfer characteristic of the reproduction room 16, ie, a characteristic of how the reproduction room 16 influences the wave fields generated by the loudspeakers 14a-e can be represented, for example, by a varying number of persons residing in the reproduction room 16 by changes in furniture such as a variable scenery of the reproduction room 16 or by caused a variable position of persons or objects within the playback room 16.
  • reflection paths between speakers 14a-e and microphones 26a-d may be blocked or generated.
  • the estimation of the transfer characteristic can also be represented as system identification. If the loudspeaker signals are correlated, the ambiguity problem can occur during system identification.
  • the renderer 22 may be configured to implement a time-varying rendering system based on the time-varying transmission characteristic of the rendering room 16 such that a changed transmission characteristic can be compensated and a reduction in audio quality can be avoided. In other words, the renderer 22 may enable adaptive equalization of the playback room 16. Alternatively or additionally, the renderer 22 may be configured to superimpose the generated loudspeaker signals with noise signals to add attenuation to the loudspeaker signals and / or to delay the loudspeaker signals by, for example, filtering the loudspeaker signals using a decorrelation filter.
  • a decorrelation filter can, for example, be used for a time-variant phase shift of the loudspeaker signals.
  • additional decorrelation of the loudspeaker signals can be achieved, for example, if meta-information on a virtual source object 12a-c is modified only slightly by the modifier 18, so that the loudspeaker signals generated by the renderer 22 are to an extent are correlated, which is to be reduced for a playback scene.
  • a decorrelation of the loudspeaker signals and thus a reduction or avoidance of system instabilities can be achieved.
  • a system identification can be improved, for example, by taking advantage of a change, ie modification of the spatial properties of the virtual source objects 12a-c.
  • the modification of the meta-information can be targeted and, according to psychoacoustic criteria, carried out in such a way that the listener 17 of the reproduced reproduction scene does not perceive the modification or does not find it disturbing.
  • a shift of the position 25 of a virtual source object 12a-c in the reproduced playback scene may result in changed loudspeaker signals and thus in a partial decorrelation of the loudspeaker signals, thus adding noise signals or applying nonlinear filtering operations such as in decorrelation filters , can be avoided.
  • a train may, for example, go unnoticed by the listener 17 if the corresponding train is at a great distance from the listener 17, such as 200, 500 or 1000 m, for example 1, 2 or 5 m in the room is shifted.
  • Multi-channel reproduction systems such as WFS, as suggested in [BDV93], Higher-Order Ambisonics (HOA), as proposed in [Dan03], for example, or similar methods can provide wave fields with multiple virtual sources or source objects, inter alia, by displaying the reproduce virtual source objects in the form of point sources, dipole sources, kidney-shaped radiation sources, or plane wave emitting sources. If these sources have stationary spatial characteristics, such as fixed positions of the virtual source objects or fixed radiation or directional characteristics, a constant acoustic reproduction scene can be identified if a corresponding correlation matrix has full rank, as shown in FIG Fig. 6 is explained in detail.
  • Device 10 is configured to generate a decorrelation of the loudspeaker signals by a modification of the metadata of the virtual source objects 12a-c and / or to take into account a time-varying transmission characteristic of the playback room 16.
  • the device represents a time variant variation of the reproduced acoustic reproduction scene for WFS, HOA or similar reproduction models to decorrelate the loudspeaker signals. Such a decorrelation can be a remedy if the problem of system identification is underdetermined.
  • device 10 allows a controlled change of the reproduced playback scene to obtain a high quality of WFS or HOA reproduction.
  • Fig. 2 shows a schematic plan view of a playback room 16, are arranged on the speaker 14a-h.
  • Device 10 is configured to generate loudspeaker signals based on one or more virtual source objects 12a and / or 12b. Perceptible modification of the metadata of the virtual source objects 12a and / or 12b may be distracting to the listener. If, for example, a location or a position of the virtual source object 12a and / or 12b is changed too much, the listener may, for example, have the impression that an instrument of an orchestra is moving in space.
  • the acoustic impression may arise that the virtual source object 12a and / or 12b differs at an acoustic velocity different from an optical speed of an object implied by the image sequence virtual source object, for example, moves at different speeds or in a different direction.
  • a perceivable or annoying impression can be reduced or prevented.
  • a spatial hearing in a median plane may be significant, whereas a spatial hearing in the sagittal plane, ie a left and right body half of the listener 17 center separating plane, play a minor role.
  • the playback scene may additionally be changed in the third dimension.
  • a localization of acoustic sources by the listener 17 may be more inaccurate in the sagittal plane than in the median plane.
  • different types of wave fields can be reproduced, such as wave fields of point sources, plane waves or wave fields of general multipole sources, such as dipoles.
  • wave fields of point sources In a two-dimensional plane, i. considering only two dimensions, the perceived position of a point source or a multipole source is describable by a direction and a distance, whereas plane waves are describable by an incident direction.
  • the listener 17 can locate the direction of a sound source by two spatial triggering stimuli, interaural level differences (ILDs) and interaural time differences (ITDs).
  • ILDs interaural level differences
  • ITDs interaural time differences
  • the modification of the meta-information of a respective virtual source object may lead to a change of the respective ILDs and / or to a change of the respective ITDs for the listener 17.
  • the removal of a sound source can already be perceived by the absolute monaural level, as described in [Bla97].
  • the distance can be perceived by a volume and / or a distance change by a volume change.
  • the interaural level difference describes a level difference between the two ears of the listener 17.
  • An ear facing a sound source may be exposed to a higher sound pressure level than an ear facing away from the sound source. If the earpiece 17 turns its head until both ears are exposed to approximately the same sound pressure level and the interaural level difference is only slight, then the listener can face the sound source or alternatively be positioned with his back to the sound source. For example, modifying the meta-information of the virtual source object 12a or 12b such that the virtual source object is displayed at a different location or has a different directional characteristic can result in a different change in the respective sound pressure levels at the ears of the listener 17 and hence in a change in the interaural Level difference lead, this change may be perceptible to the listener 17.
  • Interaural time differences may result from different transit times between a sound source and an ear of a listener 17 located at a shorter distance or at a greater distance such that a sound wave emitted by the sound source requires a longer time to the ear further away.
  • a modification of the metadata of the virtual source object 12a or 12b, for example, so that the virtual source object is displayed at a different location, can lead to a different change in the distances between the virtual source object and both ears of the listener 17 and thus to a change in the interaural time difference, this change for the listener 17 can be perceived.
  • An imperceptible or non-annoying change in the ILD may be between 0.6 dB and 2 dB, depending on the scenario being reproduced.
  • a 0.6 dB ILD variation corresponds to a decrease in the ILD of approximately 6.6% or an increase of approximately 7.2%.
  • a 1 dB change in ILD corresponds to a percentage increase in ILD of approximately 12% and a percentage decrease of 11%, respectively.
  • An increase in ILD by 2 dB corresponds to a percentage increase in ILD of approximately 26%, whereas a decrease of 2 dB corresponds to a percentage decrease of 21%.
  • a perception threshold for an ITD may be dependent on a particular scenario of the acoustic playback scene, such as 10, 20, 30, or 40 ⁇ s.
  • modifying the meta-information of the virtual source object 12a or 12b may be low, i. In the range of a few 0.1 dB, changed ILDs, a change in the ITDs may possibly be perceived earlier by the handset 17 or be perceived as disturbing than a change in the ILD.
  • the modification of the meta-information may only slightly affect the ILDs if the distance from one sound source to the listener 17 is slightly shifted.
  • a laterally disposed sound source may be located in one of the side regions 36a or 36b extending between the frontal regions 34a and 34b.
  • the frontal areas 34a and 34b may be defined, for example, such that at an angle of ⁇ 45 ° with respect to the viewing direction 32, the frontal area 34a of the earpiece 17 and ⁇ 45 ° counter to the viewing direction, the frontal area 34b extends, so that the frontal area 34b in the back of the listener can be arranged.
  • the frontal regions 34a and 34b may also comprise a smaller or larger angle or comprise different angular ranges from one another, such that, for example, the frontal region 34a comprises a larger angular range than the frontal region 34b.
  • frontal regions 34a and 34b and / or side regions 36a and 36b can be arranged independently of one another or spaced from one another.
  • the viewing direction 32 can, for example, be seated on or in which the handset 14 is seated or by a chair in which the handset 17 looks at a screen.
  • apparatus 10 may enable a displacement of a source object individually with respect to the virtual source objects 12a and 12b, whereas in [SHK13], only the reproduced playback scene as a whole can be rotated.
  • a system as described, for example, [SHK13] has no information about the rendered scene but takes into account information about the generated speaker signals.
  • Device 10 changes the rendered scene known to device 10.
  • the distance 38 of an acoustic source may possibly be inaccurately perceived by a listener.
  • a variation of the distance 38 of up to 25% for listeners is usually not perceived or bothersome, which allows a rather strong variation of the source distance, as described for example in [Bla97] is.
  • a period between changes in the reproduced playback scene may have a constant or variable interval between individual changes, such as 5 seconds, 10 seconds, or 15 seconds, to ensure high audio quality.
  • the high audio quality can be achieved by allowing an interval of about 10 seconds between scene changes or changes in meta-information of one or more virtual source objects, a sufficiently high decorrelation of the speaker signals and the rarity of the changes or modifications contributes to changes in the playback scene not perceptible or disturbing.
  • Variation or modification of the radiation characteristics of a general multipole source can leave the ITDs unaffected, whereas the ILDs can be affected. This may allow for any modifications to the radiation characteristics that are unnoticed or unnoticed by a listener 17 as long as the ILDs at the listener location are less than or equal to the respective threshold (0.6 dB to 2 dB).
  • the same limits may be used for a monaural level change, i. with respect to an ear of the earpiece 17.
  • Device 10 is configured to overlay an original virtual source object 12a, with an additional mapped virtual source 12'a that emits the same or a similar source signal.
  • the modifier 18 is configured to create an image of the virtual source object (12a).
  • the imaged virtual source 12'a can be arranged approximately at a virtual position P 1 at which the virtual source object 12a is originally arranged.
  • the virtual position P 1 has a distance 38 to the handset 17.
  • the additional mapped virtual source 12'a may be an imaged version of the virtual source object 12a created by the modifier 18 such that the mapped virtual source 12'a is the virtual source object 12.
  • the virtual source object 12a may have been imaged by the modifier 18 into the mapped virtual source object 12'a.
  • the virtual source object 12a by the modification of the meta information for example.
  • the modifier 18 modifies the meta-information of the image 12'a.
  • a region 43 can be represented as a partial area of a circle with a distance 41 around the imaged virtual source object 12'a, which has a distance of at least the distance 38 from the receiver 17. If the distance 38 'between the modified virtual source object 12a is greater than the distance 38 between the imaged virtual source 12'a, so that the modified source object 12a is located within the area 43, the virtual source object 12a may be in the area 43 around that shown virtual source object 12'a without the imaged virtual source object 12'a and the virtual source object 12 being perceived as separate acoustic objects.
  • the region 43 can extend up to 5, 10 or 15 m around the imaged virtual source object 12'a and be bounded by a circle with the radius R 1 corresponding to the distance 38.
  • device 10 may be configured to take advantage of the precedence effect, also known as the Haas effect, as described in [Bla97].
  • the Haas effect also known as the Haas effect
  • Fig. 3 shows a schematic overview of the modification of meta-information of various virtual source objects 121-125 in a device 30 for generating a plurality of decorrelated speaker signals. Even though Fig. 3 and the explanations for a clear representation are kept two-dimensional, all examples also apply to the three-dimensional case.
  • the virtual source object 121 is a spatially limited source, such as a point source.
  • the meta-information of the virtual source object 121 can be modified, for example, such that the virtual source object 121 is moved on a circular path over a plurality of interval steps.
  • the virtual source object 122 is also a spatially limited source such as a point source.
  • a change in the metadata of the virtual source object 122 may, for example, take place such that the point source is moved irregularly in a limited area or volume over a plurality of interval steps.
  • the wave field of the virtual source objects 121 and 122 may be modified in general by modifying the meta information so that the position of the respective virtual source object 121 or 122 is modified. In principle, this is possible for any virtual source object with a limited spatial extent, such as a dipole or a source with a kidney-shaped radiation characteristic.
  • the virtual source object 123 representing a planar sound source, may be varied with respect to the excited plane wave. By modifying the meta-information, an emission angle of the virtual source object 123 and / or an angle of incidence on the receiver 17 can be influenced.
  • the virtual source object 124 is a virtual source object having a limited spatial extent, such as a dipole source having a directional radiation characteristic, as indicated by the circles.
  • the direction-dependent emission characteristic can be rotated.
  • the meta-information may be modified so that the radiation pattern is modified depending on the particular time.
  • this is exemplified by a change from a kidney-shaped radiation characteristic (solid line) to a hypercardioid directional characteristic (dashed line).
  • an additional, time-variant direction-dependent directional characteristic can be added or generated.
  • the various possibilities such as changing the position of a virtual source object such as a point source or source with limited spatial extent, a change in the angle of incidence of a plane wave, a change of the radiation pattern, a rotation of the radiation characteristic or adding a directional directional characteristic to an omnidirectional radiating Source object, can be combined with each other.
  • the parameters which are selected or determined to be modified for the respective source object may be any and different.
  • the manner of changing the spatial characteristics as well as a speed of change may be chosen such that the change of the reproduced scene of reproduction either goes unnoticed by a listener or is acceptable in the perception by the listener.
  • the spatial characteristics for temporally individual frequency ranges can be varied differently.
  • Fig. 5c shows an exemplary course of an amplitude oscillation of a virtual source object over time.
  • Fig. 6c For example, a signal model of decorrelated speaker signal generation by a modification of the acoustic reproducing scene will be explained. It is a prototype to represent the effects. The prototype is, for example, constructed experimentally with regard to the loudspeakers and / or microphones used, the dimensions and / or distances between components.
  • Fig. 4 shows a schematic arrangement of speakers and microphones in an experimental prototype.
  • An exemplary number of N M 10 microphones is arranged equidistantly in a microphone system 26S on a circular line with a radius R M of, for example, 0.05 m, so that the microphones can have an angle of 36 ° to one another.
  • the setup is arranged in a room (enclosure of the LEMS) with a reverberation time T 60 of about 0.3 seconds.
  • the impulse responses can be measured at a sampling frequency of 44.1 kHz, converted to a sampling rate of 11025 Hz and cut to a length of 1024 measurement points, which is the length of the adaptive filters for the AEC.
  • the LEMS is simulated by convolution of received impulse responses without noise on the microphone signal (near-end noise) or local sound sources within the LEMS. These ideal laboratory conditions are selected to separate the influence of the proposed method on the convergence of the adaptation algorithm from other influences. Further experiments, for example with modeled near-end noise can lead to equivalent results.
  • the signal model is in FIG. 6c explained.
  • the decorrelated loudspeaker signals x '(k) are input to the LEMS H, which can then be identified by a transfer function H est (n) based on the observations of the decorrelated loudspeaker signals x ' (k) and the resulting microphone signals d (k).
  • the error signals e (k) can detect reflections from speaker signals on the enclosure, such as the remaining echo.
  • NMA Normalized Misalignment
  • n floor (k / L F ), where floor ( ⁇ ) is the "floor” operator or the Gaussian bracket, ie the quotient is rounded off.
  • ERLE Echo Return Loss Enhancement
  • ⁇ ⁇ ⁇ 2 describes the Euclidean norm.
  • the loudspeaker signals are determined according to the theory of wave field synthesis, as proposed for example in [BDV93], in order to synthesize four plane waves simultaneously with angles of incidence varying by ⁇ q .
  • ⁇ a is the amplitude of the incident angle oscillation
  • L P is the period of the incidence angle oscillation, as exemplified in FIG Fig. 5c is illustrated.
  • white noise uncorrelated signals were used among each other, so that all 48 speakers can be operated with the same average power.
  • noise signals used to drive loudspeakers may not be relevant in practice, this scenario may allow a clear and concise assessment of the influence of ⁇ a .
  • N S 4
  • the prototype can achieve results of the NMA that can surpass the state of the art and can thus lead to a better acoustic reproduction of WFS or HOA.
  • Fig. 5a shows the ERLE for the four sources of the prototype.
  • the ERLE can be achieved up to about 58 dB.
  • Fig. 5b shows the achieved normalized system spacing with the identical values for ⁇ a in plots 1 to 4.
  • the system spacing can reach values of up to about -16 dB, which compares to values of -6 dB achieved in [SHK13] a significant improvement in the system description of the LEMS.
  • Fig. 5c shows a plot at which the time on the abscissa and the values of the amplitude oscillation ⁇ a are indicated on the ordinate, so that the period L P can be read.
  • FIG. 5a-c show that the system identification can be improved with a larger rotation amplitude ⁇ a of a virtual source object of the acoustic scene, as shown in Plot 3 of the Fig. 5b
  • a reduction of the NMA may possibly be achieved at the expense of reduced echo cancellation, as is plots 1-3 in FIG Fig. 5a opposite plot 4 (without rotation amplitude).
  • Fig. 6a-c various types of system identification described.
  • Fig. 6a describes a signal model of a system identification of a multiple input multiple output (MIMO) system, where the ambiguity problem can occur.
  • Fig. 6b For example, a signal model of a MIMO system identification with a decorrelation of the loudspeaker signals according to the prior art will be described.
  • Fig. 6c shows a signal model of a MIMO system identification with a decorrelation of loudspeaker signals, such as with a device of the Fig. 1 or the Fig. 2 is achievable.
  • the LEMS H is estimated by H est (n), where H est (n) is estimated by observing the loudspeaker signals x (k) and the microphone signals d (k).
  • H est (n) may, for example, be a possible solution of an underdetermined system of equations.
  • x l k x l k - L X + 1 . x l k - L X + 2 . ... .
  • L x describes the length of the individual component vectors x 1 (k) which detect the samples x 1 (k) of the loudspeaker signal 1 at time k.
  • the impulse responses h m, l (k) of the LEMS of length L H can describe the LEMS to be identified.
  • the speaker signals x (k) can be obtained by a reproducing system based on WFS, higher order ambisonics or the like.
  • the rendering system may include, for example, linear MIMO filtering of a number of N S virtual source signals s ⁇ (k).
  • the virtual source signals s ⁇ (k) can be passed through the vector
  • L s is, for example, a length of the signal segment of the individual component s ⁇ q (k) and s ⁇ q (k) is the result of sampling the source q at time k.
  • a matrix G can represent the rendering system and be structured such that describes the convolution of the source signals s ⁇ q (k) with the impulse response g l, q (k). This can be used to derive the loudspeaker signals x l (k) from the source signals s q (k) according to the calculation rule to describe.
  • the impulse responses g l, q (k) have, for example, a length of L R samples and represent R (1, q, ⁇ ) in the discrete time domain.
  • a corresponding standard such as the Euclidean or a geometric standard.
  • H est (n) can only be unique if the correlation matrix R xx of the loudspeaker signals has full rank.
  • a necessary condition for R xx to have full rank is N L L X ⁇ N S L X + L R - 1 . wherein the virtual sources carry at least uncorrelated signals and are positioned at different positions.
  • the ambiguity problem can result, at least in part, from the strong mutual cross-correlation of the loudspeaker signals, which may be due, inter alia, to the smaller number of virtual sources. Occurrence of the ambiguity problem may be more likely the more channels are used for the rendering system, inter alia if the number of virtual source objects is less than the number of speakers used in the LEMS.
  • Auxiliary solutions according to the prior art aim at a change of the loudspeaker signals, so that the rank of R xx is increased or the condition number of R xx is improved.
  • Fig. 6b shows a signal model of a method for system estimation and decorrelation of loudspeaker signals.
  • Correlated loudspeaker signals x (k) can be converted, for example, by decorrelation filters and / or noise-based approaches into decorrelated loudspeaker signals x '(k). The two approaches can be used together or separately.
  • a block 44 (Decorr Fig. 6b describes a filtering of the loudspeaker signals x l (k), which differs for each loudspeaker with index I and may be non-linear, as described, for example, in [MHB01, BMS98]. Alternatively, the filtering may be linear, but time varying, as suggested, for example, in [SHK13, Ali98, HBK07, WWJ12].
  • noise-based approaches proposed in [SMH95, GT98, GE98] can be represented by an addition of uncorrelated noise, indicated by n (k). These approaches have in common that they neglect or leave unchanged the virtual source signals s (k) and the rendering system G. They only process the loudspeaker signals x (k).
  • Fig. 6c shows a signal model of a MIMO system identification with a loudspeaker decorrelation as shown in the Fig. 1 and 2 is described.
  • a necessary condition for a clear system identification is with N L L X ⁇ N S L X + L R - 1 . given.
  • This condition applies regardless of the actual spatial properties, such as physical dimensions or radiation characteristics of the virtual source objects.
  • the respective virtual source objects are positioned at positions different from one another in the respective reproduction space.
  • different spatial properties of the virtual source objects may require different impulse responses that are representable in G.
  • G determines the correlation properties of the loudspeaker signals x (k) described by R xx .
  • a change in the spatial properties of virtual source objects can be exploited to improve system identification. This is made possible by implementing a time-varying rendering system, represented by G '(k).
  • the time-variant rendering system G '(k) comprises the modifier 18, as it is, for example, in Fig. 1 is explained to modify the metadata of the virtual source objects and thus the spatial properties of the virtual source objects.
  • the Rendering systems of the renderers 22 provide loudspeaker signals based on the meta-information modified by the modifier 18 to reflect the wavefields of various virtual source objects, such as point sources, dipole sources, planar sources, or kidney-shaped radiation sources.
  • G '(k) is the Fig. 6c depends on the time step k and can be variable for different time steps k.
  • the renderer 22 produces the decorrelated loudspeaker signals x '(k) directly, so that it is possible to dispense with the addition of noise or a decorrelation filter.
  • the matrix G '(k) can be determined for each time step k in accordance with the selected display scheme, wherein the times k have a temporal difference from one another.
  • aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device.
  • embodiments of the invention may be implemented in hardware or in software.
  • the implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable.
  • some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.
  • embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer.
  • the program code can also be stored, for example, on a machine-readable carrier.
  • an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer.
  • Another example of the inventive methods is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.
  • Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • a processing device such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.
  • Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.
  • a programmable logic device eg, a field programmable gate array, an FPGA
  • a field programmable gate array may include a Microprocessor cooperate to perform any of the methods described herein.
  • the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)

Description

Die Erfindung bezieht sich auf eine Vorrichtung und ein Verfahren zur Dekorrelation von Lautsprechersignalen durch eine Änderung der wiedergegebenen akustischen Szene.The invention relates to an apparatus and method for decorrelating loudspeaker signals by changing the reproduced acoustic scene.

Für ein dreidimensionales Hörerlebnis kann beabsichtigt sein, dem jeweiligen Hörer eines Audiostückes oder Zuseher eines Filmes durch eine dreidimensionale akustische Wiedergabe ein realistischeres Hörerlebnis zu vermitteln, indem beispielsweise akustisch Eindrücke vermittelt werden, der Hörer oder Zuschauer befände sich innerhalb der wiedergegebenen akustischen Szene. Hierfür können auch psychoakustische Effekte genutzt werden. Wellenfeldsynthese- oder Higher-Order-Ambisonics-Algorithmen werden eingesetzt, um mit einer Anzahl oder Vielzahl von Lautsprechern innerhalb eines Wiedergaberaumes ein bestimmtes Klangfeld zu erzeugen. Dafür können die Lautsprecher so angesteuert werden, dass die Lautsprecher Wellenfelder erzeugen, die akustischen Quellen ganz oder teilweise entsprechen, die an einem nahezu beliebigen Ort einer wiedergegebenen akustischen Szene angeordnet sind.For a three-dimensional listening experience, it may be intended to give the respective listener of an audio piece or viewer of a film a three-dimensional acoustic reproduction a more realistic listening experience by, for example, conveys impressions acoustically, the listener or viewer would be within the reproduced acoustic scene. Psychoacoustic effects can also be used for this. Wavefield Synthesis or Higher Order Ambisonics algorithms are used to generate a particular sound field with a number or plurality of speakers within a playback room. For this purpose, the loudspeakers can be controlled such that the loudspeakers generate wave fields which correspond in whole or in part to acoustic sources which are arranged at a virtually arbitrary location of a reproduced acoustic scene.

Wellenfeldsynthese (WFS) oder Higher Order Ambisonics (HOA) ermöglicht dem Hörer einen hochqualitativen räumlichen Höreindruck, indem eine große Anzahl an Ausbreitungskanälen genutzt wird, um virtuelle akustische Quellenobjekte räumlich darzustellen. Um eine umfassendere Nutzererfahrung zu erhalten, können diese Wiedergabesysteme durch räumliche Aufnahmesysteme ergänzt werden, um weitere Anwendungen, wie etwa interaktive Anwendungen, zu ermöglichen oder um die Wiedergabequalität zu verbessern. Die Kombination aus dem Lautsprecher-Array, dem einhausenden Raum bzw. Volumen wie etwa ein Wiedergaberaum und dem Mikrophon-Array wird als Lautsprecher-Einhausung-Mikrophon System (LEMS) bezeichnet und in vielen Anwendungen durch simultane Beobachtung der Lautsprechersignale und der Mikrophonsignale identifiziert. Jedoch ist bereits durch Stereophone Kompensation akustischer Echos (Stereophonic Acoustic Echo Cancellation - AEC) bekannt, dass die typischerweise starken Kreuzkorrelationen der Lautsprechersignale eine hinreichende Systemidentifikation verhindern können, wie es beispielsweise in [BMS98] beschrieben ist. Dies wird als das Mehrdeutigkeitsproblem bezeichnet. In diesem Fall ist das Ergebnis der Systemidentifikation lediglich eines von unendlich vielen Lösungen, die durch die Korrelationseigenschaften der Lautsprechersignale bestimmt sind. Das Ergebnis dieser unvollständigen Systemidentifikation beschreibt dennoch das Verhalten des echten/realen LEMS für die momentanen Lautsprechersignale und kann deshalb für verschiedene adaptive Filteranwendungen, beispielsweise AEC oder Hörraumentzerrung (Listening Room Equalization - LRE) verwendet werden. Jedoch ist dieses Ergebnis nicht mehr korrekt, wenn sich die Kreuzkorrelationseigenschaften der Lautsprechersignale ändern, wodurch das auf diesen adaptiven Filtern beruhende Verhalten des Systems instabil werden kann. Diese mangelnde Robustheit stellt eine wesentliche Hürde für die Anwendbarkeit vieler Technologien, wie etwa AEC oder adaptive LRE, dar.Wave Field Synthesis (WFS) or Higher Order Ambisonics (HOA) provides the listener with a high quality spatial listening experience by using a large number of propagation channels to spatially represent virtual acoustic source objects. To provide a more complete user experience, these rendering systems can be supplemented with spatial capture systems to allow for additional applications, such as interactive applications, or to enhance the quality of the playback. The combination of the loudspeaker array, the in-room volume such as a display room and the microphone array is referred to as Speaker Housing Microphone System (LEMS) and identified in many applications by simultaneous observation of the loudspeaker signals and the microphone signals. However, Stereophonic Acoustic Echo Cancellation (AEC) compensation is already known that the typically strong cross-correlation of the loudspeaker signals can prevent adequate system identification, as described for example in [BMS98]. This is called the ambiguity problem. In this case, the result of the system identification is only one of infinitely many solutions determined by the correlation properties of the loudspeaker signals. The result of this incomplete system identification nevertheless describes the behavior of the real LEMS for the instantaneous loudspeaker signals and can therefore be used for various adaptive filtering applications, for example AEC or Listening Room Equalization (LRE). However, this result is no longer correct when the cross-correlation properties of the loudspeaker signals change, which can make the system's behavior based on these adaptive filters unstable. This lack of robustness represents a major hurdle to the applicability of many technologies, such as AEC or adaptive LRE.

Für viele Anwendungen im Bereich der akustischen Wiedergabe kann eine Identifikation eines Lautsprecher-Einhausungs-Mikrofon Systems (Loudspeaker-Enclosure-Microphone System), bzw. LEMS notwendig sein. Bei einer großen Anzahl von Ausbreitungspfaden zwischen Lautsprechern und Mikrophonen, wie es beispielsweise für eine Wellenfeldsynthese (WFS) der Fall sein kann, kann diese Aufgabe aufgrund des Mehrdeutigkeitsproblems (im Englischen als nonuniqueness problem bezeichnet), d.h. aufgrund eines unterbestimmten Systems, besonders herausfordernd sein. Werden in einer akustischen Wiedergabeszene weniger virtuelle Quellen dargestellt, als das Wiedergabesystem Lautsprecher umfasst, so kann das Mehrdeutigkeitsproblem auftreten. In einem solchen Fall kann das System nicht eindeutig identifiziert werden und Methoden oder Verfahren, die eine Systemidentifikation umfassen, leiden an einer schwachen oder geringen Robustheit bzw. Stabilität gegenüber variierenden Korrelationseigenschaften der Lautsprechersignale. Ein gegenwärtiger Behelf gegen das Mehrdeutigkeitsproblem beinhaltet eine Modifizierung der Lautsprechersignale (d.h. eine Dekorrelation), so dass das System bzw. LEMS eindeutig identifiziert werden kann und/oder die Robustheit unter gegebenen Bedingungen zu erhöhen. Jedoch können die meisten bekannten Ansätze die Audioqualität reduzieren oder würden das synthetisierte Wellenfeld möglicherweise stören, wenn sie bei einer Wellenfeldsynthese angewendet würden.For many applications in the field of acoustic reproduction, an identification of a loudspeaker enclosure microphone system (Loudspeaker Enclosure Microphone System), or LEMS may be necessary. With a large number of propagation paths between loudspeakers and microphones, as may be the case for wave-field synthesis (WFS), for example, this problem may be due to the ambiguity problem (i.e. be particularly challenging because of an underdetermined system. If fewer virtual sources are displayed in an acoustic reproduction scene than the loudspeaker system comprises, the ambiguity problem can arise. In such a case, the system can not be uniquely identified, and methods or methods involving system identification suffer from poor or poor robustness to varying correlation characteristics of the loudspeaker signals. A current remedy against the ambiguity problem involves modifying the loudspeaker signals (i.e., a decorrelation) so that the system or LEMS can be uniquely identified and / or increase the robustness under given conditions. However, most known approaches may reduce audio quality or possibly interfere with the synthesized wave field if used in wave-field synthesis.

Für den Zweck der Dekorrelation von Lautsprechersignalen sind drei Möglichkeiten bekannt, um die Robustheit der Systemidentifikation, also der Identifikation oder Schätzung des realen LEMS, zu erhöhen:

  • Aus [SMH95], [GT98] und [GE98] ist ein Hinzufügen von bezüglich verschiedener Lautsprechersignale unabhängigem Rauschen zu den Lautsprechersignalen vorgeschlagen. In [MHBOI], [BMS98] werden verschiedene nichtlineare Vorverarbeitungen für jeden Wiedergabekanal vorgeschlagen. In [Ali98], [HBK07] werden verschiedene zeitvariante Filterungen für jeden Lautsprecherkanal vorgeschlagen. Obwohl die genannten Techniken die wahrgenommene Klang- oder Schallqualität im Idealfall nicht beeinträchtigen sollten, sind sie im Allgemeinen nicht gut geeignet für WFS: da die Lautsprechersignale für WFS analytisch bestimmt werden, kann eine zeitvariante Filterung das reproduzierte Wellenfeld signifikant stören. Wenn eine hohe Qualität der Audiowiedergabe angestrebt ist, wird ein Hörer möglicherweise eine Hinzufügung von Rauschsignalen oder eine nichtlineare Vorverarbeitung, die beide die Audioqualität reduzieren können, nicht akzeptieren. In [SHK13] wird ein für WFS geeigneter Ansatz vorgeschlagen, bei dem die Lautsprechersignale vorgefiltert werden, so dass eine Veränderung der Lautsprechersignale im Sinne einer zeitvarianten Rotation des wiedergegebenen Wellenfeldes erreicht wird.
For the purpose of decorrelating loudspeaker signals, three ways are known to increase the robustness of the system identification, that is, the identification or estimation of the real LEMS:
  • From [SMH95], [GT98] and [GE98], it is proposed to add noise independent of various speaker signals to the speaker signals. In [MHBOI], [BMS98] various non-linear preprocessing is proposed for each playback channel. In [Ali98], [HBK07] different time-variant filters are proposed for each loudspeaker channel. Although these techniques should ideally not compromise the perceived sound or sound quality, they are generally not well suited for WFS: because the loudspeaker signals for WFS are analytically determined, time variant filtering can significantly disturb the reproduced wave field. If high quality audio reproduction is desired, a listener may not accept addition of noise signals or non-linear preprocessing, both of which may reduce audio quality. In [SHK13] a suitable approach for WFS is proposed in which the loudspeaker signals are prefiltered so that a change in the loudspeaker signals in the sense of a time-variant rotation of the reproduced wave field is achieved.

Die Aufgabe der vorliegenden Erfindung besteht deshalb darin, eine Vorrichtung und ein Verfahren zur Erzeugung einer Mehrzahl von Lautsprechersignalen zu schaffen, das eine verbesserte Systemidentifikation ermöglicht.The object of the present invention is therefore to provide an apparatus and a method for generating a plurality of loudspeaker signals, which enables an improved system identification.

Diese Aufgabe wird durch den Gegenstand der unabhängigen Patentansprüche gelöst.This object is solved by the subject matter of the independent patent claims.

Der Kerngedanke der vorliegenden Erfindung besteht darin, erkannt zu haben, dass obige Aufgabe dadurch gelöst werden kann, dass durch zeitvariante Modifizierung von Metainformationen eines virtuellen Quellenobjektes, wie etwa die Position oder Art des virtuellen Quellenobjektes dekorrelierte Lautsprechersignale erzeugbar sind.The core idea of the present invention is to have recognized that the above object can be achieved in that decorrelated loudspeaker signals can be generated by time-variant modification of meta-information of a virtual source object, such as the position or type of the virtual source object.

Gemäß einem Ausführungsbeispiel umfasst eine Vorrichtung zur Erzeugung einer Mehrzahl von Lautsprechersignalen einen Modifizierer, der ausgebildet ist, um Metainformationen eines virtuellen Quellenobjektes zeitvariant zu modifizieren. Das virtuelle Quellenobjekt weist die Metainformationen und ein Quellensignal auf.According to one embodiment, an apparatus for generating a plurality of loudspeaker signals comprises a modifier configured to time varying modify meta information of a virtual source object. The virtual source object comprises the meta-information and a source signal.

Die Metainformationen bestimmen bspw. Eigenschaften wie etwa eine Position oder eine Art des virtuellen Quellenobjektes. Durch Modifizierung der Metainformationen kann beispielsweise die Position oder die Art, wie etwa eine Abstrahlcharakteristik, des virtuellen Quellenobjektes modifiziert werden. Die Vorrichtung umfasst ferner einen Renderer, der ausgebildet ist, um das virtuelle Quellenobjekt und die modifizierten Metainformationen in eine Vielzahl von Lautsprechersignalen zu überführen. Durch die zeitvariante Modifizierung der Metainformationen anhand definierter Regeln, welche in den weiteren Merkmalen des Anspruchs 1 definiert sind, kann eine Dekorrelation der Lautsprechersignale erreicht werden, so dass eine stabile, d.h. robuste, Systemidentifikation bereitstellbar ist, um basierend auf der verbesserten Systemidentifikation eine robustere LRE oder eine robustere AEC zu ermöglichen, da die Robustheit der LRE und/oder AEC von der Robustheit der Systemidentifikation abhängig ist. Eine robustere LRE oder eine robustere AEC kann für eine verbesserte Wiedergabequalität der Lautsprechersignale genutzt werden.For example, the meta-information determines characteristics such as a position or type of the virtual source object. By modifying the meta-information, for example, the position or type, such as a radiation characteristic, of the virtual source object can be modified. The apparatus further includes a renderer configured to surround the virtual source object and the modified ones Transfer meta information into a variety of loudspeaker signals. By the time-variant modification of the meta-information based on defined rules, which are defined in the further features of claim 1, a decorrelation of the loudspeaker signals can be achieved, so that a stable, ie robust, system identification can be provided, based on the improved system identification a more robust LRE or to enable a more robust AEC, since the robustness of the LRE and / or AEC depends on the robustness of the system identification. A more robust LRE or a more robust AEC can be used for improved sound quality of the speaker signals.

Vorteilhaft an dieser Ausführungsform ist, dass mittels des Renderer basierend auf den zeitvariant modifizierten Metainformationen dekorrelierte Lautsprechersignale erzeugbar sind, so dass auf eine zusätzliche Dekorrelation durch eine zusätzliche Filterung oder eine Addition von Rauschsignalen verzichtet werden kann.An advantage of this embodiment is that decorrelated loudspeaker signals can be generated by means of the renderer based on the time-varying modified meta-information, so that an additional decorrelation by an additional filtering or an addition of noise signals can be dispensed with.

Ein alternatives Ausführungsbeispiel schafft ein Verfahren zur Erzeugung einer Mehrzahl von Lautsprechersignalen basierend auf einem virtuellen Quellenobjekt mit einem Quellensignal und Metainformationen, die die Position oder die Art des virtuellen Quellenobjektes bestimmen. Das Verfahren umfasst ein zeitvariantes Modifizieren der Metainformationen anhand definierter Regeln, welche in den weiteren Merkmalen des Anspruchs 7 definiert sind, und ein Überführen des virtuellen Quellenobjektes und der modifizierten Metainformationen in eine Vielzahl von Lautsprechersignalen.An alternative embodiment provides a method for generating a plurality of loudspeaker signals based on a source virtual object having a source signal and meta information defining the location or type of the source virtual object. The method comprises time-varying the meta-information by means of defined rules, which are defined in the further features of claim 7, and converting the virtual source object and the modified meta-information into a plurality of loudspeaker signals.

Vorteilhaft an diesem Ausführungsbeispiel ist, dass durch die Modifikation der Metainformationen bereits dekorrelierte Lautsprechersignale erzeugbar sind, so dass gegenüber einer nachträglichen Dekorrelation von korrelierten Lautsprechersignalen eine erhöhte Wiedergabequalität der akustischen Wiedergabeszene erzielbar ist, da eine Addition nachträglicher Rauschsignale oder eine Anwendung nichtlinearer Operationen vermieden werden kann.An advantage of this embodiment is that by the modification of the meta information already decorrelated loudspeaker signals are generated, so that compared to a subsequent decorrelation of correlated loudspeaker signals increased reproduction quality of the acoustic playback scene can be achieved because an addition of subsequent noise signals or an application of non-linear operations can be avoided.

Weitere vorteilhafte Ausführungsformen sind der Gegenstand der abhängigen Patentansprüche. Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen erläutert. Es zeigen:

Fig. 1
eine Vorrichtung zur Erzeugung einer Mehrzahl von dekorrelierten Lautsprechersignalen basierend auf virtuellen Quellenobjekten;
Fig. 2
eine schematische Aufsicht auf einen Wiedergaberaum, an dem Lautsprecher angeordnet sind;
Fig. 3
eine schematische Übersicht zur Modifikation von Metainformationen verschiedener virtuellen Quellenobjekten;
Fig. 4
eine schematische Anordnung von Lautsprechern und Mikrophonen in einem experimentellen Prototypen;
Fig. 5a
die Ergebnisse erzielbarer Echo Return Loss Enhancement (ERLE) für die Kompensation akustischer Echos (AEC) in vier Plots für vier Quellen mit unterschiedlicher Amplitudenoszillation des Prototypen;
Fig. 5b
den normierten Systemabstand für die Systemidentifikation für die Amplitudenoszillationen;
Fig. 5c
einen Plot an welchem an der Abszisse die Zeit und an der Ordinate die Werte der Amplitudenoszillation angegeben sind;
Fig. 6a
ein Signalmodell zu Identifizierung eines Loudspeaker Enclosure Microphone System (LEMS);
Fig. 6b
ein Signalmodell eines Verfahrens zur Systemschätzung gemäß Fig. 6a und zur Dekorrelation von Lautsprechersignalen;
Fig. 6c
ein Signaimodell einer MIMO Systemidentifikation mit einer Lautsprecherdekorrelation, wie sie in den Fig. 1 und 2 beschrieben ist.
Further advantageous embodiments are the subject of the dependent claims. Preferred embodiments of the present invention will be explained below with reference to the accompanying drawings. Show it:
Fig. 1
a device for generating a plurality of decorrelated loudspeaker signals based on virtual source objects;
Fig. 2
a schematic plan view of a playback room, are arranged on the speaker;
Fig. 3
a schematic overview of the modification of meta-information of various virtual source objects;
Fig. 4
a schematic arrangement of speakers and microphones in an experimental prototype;
Fig. 5a
the results of achievable Echo Return Loss Enhancement (ERLE) for acoustic echo cancellation (AEC) in four plots for four sources with different amplitude oscillation of the prototype;
Fig. 5b
the normalized system distance for the system identification for the amplitude oscillations;
Fig. 5c
a plot at which the abscissa indicates the time and the ordinate the values of the amplitude oscillation;
Fig. 6a
a signal model for identification of a Loudspeaker Enclosure Microphone System (LEMS);
Fig. 6b
a signal model of a method for system estimation according to Fig. 6a and for decorrelating loudspeaker signals;
Fig. 6c
a sign model of a MIMO system identification with a speaker decorrelation, as described in the Fig. 1 and 2 is described.

Bevor nachfolgend Ausführungsbeispiele der vorliegenden Erfindung im Detail anhand der Zeichnungen näher erläutert werden, wird darauf hingewiesen, dass identische, funktionsgleiche oder gleichwirkende Elemente, Objekte und/oder Strukturen in den unterschiedlichen Figuren mit den gleichen Bezugszeichen versehen sind, so dass die in unterschiedlichen Ausführungsbeispielen dargestellte Beschreibung dieser Elemente untereinander austauschbar ist bzw. aufeinander angewendet werden kann.Before embodiments of the present invention are explained in more detail in detail with reference to the drawings, it is pointed out that identical, functionally identical or equivalent elements, objects and / or structures in the different figures are provided with the same reference numerals, so that shown in different embodiments Description of these elements is interchangeable or can be applied to each other.

Fig. 1 zeigt eine Vorrichtung 10 zur Erzeugung einer Mehrzahl von dekorrelierten Lautsprechersignalen basierend auf virtuellen Quellenobjekten 12a, 12b und/oder 12c. Bei einem virtuellen Quellenobjekt kann es sich um jedwede Art von geräuschemittierenden Objekten, Körpern oder Personen handeln, wie etwa ein oder mehrere Menschen, Musikinstrumente, Tiere, Pflanzen, Geräte oder Maschinen. Die virtuellen Quellenobjekte 12a-c können Elemente einer akustischen Wiedergabeszene sein, wie etwa eines Orchesters, welches ein Stück aufführt. Bei einem Orchester kann ein virtuelles Quellenobjekt beispielsweise ein Instrument oder eine Gruppe von Instrumenten sein. Zusätzlich zu einem Quellensignal wie etwa ein Monosignal eines wiedergegebenen Tones oder Geräusches bzw. einer Ton- oder Geräuschfolge des virtuellen Quellenobjektes 12a-c, können einem virtuellen Quellenobjekt auch Metainformationen zugeordnet sein. Die Metainformationen können beispielsweise einen Ort des virtuellen Quellenobjektes innerhalb der von einem Wiedergabesystem reproduzierten akustischen Wiedergabeszene umfassen. Beispielsweise kann dies eine Position eines jeweiligen Instrumentes innerhalb des wiedergegebenen bzw. reproduzierten Orchesters bedeuten. Die Metainformationen können alternativ oder zusätzlich auch eine Richt- oder Abstrahlcharakteristik des jeweiligen virtuellen Quellenobjektes umfassen, wie etwa Informationen darüber, in welche Richtung das jeweilige Quellensignal des Instrumentes abgespielt wird. Ist ein Instrument eines Orchesters beispielsweise eine Trompete, so wird der Trompetenschall bevorzugt in eine bestimmte Richtung (die Richtung, in welche der Schallbecher weist), abgestrahlt. Ist das Instrument alternativ hierzu beispielsweise eine Gitarre, so strahlt die Gitarre verglichen mit der Trompete in einem größeren Abstrahlwinkel ab. Die Metainformationen eines virtuellen Quellenobjektes können die Abstrahlcharakteristik und die Orientierung der Abstrahlcharakteristik in der reproduzierten Wiedergabeszene umfassen. Die Metainformationen können alternativ oder zusätzlich auch eine räumliche Ausdehnung des virtuellen Quellenobjektes in der reproduzierten Wiedergabeszene umfassen. Basierend auf den Metainformationen und dem Quellensignal kann ein virtuelles Quellenobjekt zwei- oder dreidimensional im Raum beschrieben werden. Fig. 1 shows a device 10 for generating a plurality of decorrelated speaker signals based on virtual source objects 12a, 12b and / or 12c. A virtual source object can be any type of noise-emitting object, body, or person, such as one or more people, musical instruments, animals, plants, devices, or machines. The virtual source objects 12a-c may be elements of an acoustic playback scene, such as an orchestra performing a performance. For an orchestra, a virtual source object may be, for example, an instrument or a group of instruments. In addition to a source signal, such as a mono signal of a reproduced sound, or a sound or sound sequence of the virtual source object 12a-c, meta information may also be associated with a virtual source object. For example, the meta-information may include a location of the virtual source object within the acoustic playback scene reproduced by a playback system. For example, this may mean a position of a respective instrument within the reproduced orchestra. The meta-information may alternatively or additionally also include a directional or emission characteristic of the respective virtual source object, such as information about the direction in which the respective source signal of the instrument is played. For example, if an instrument of an orchestra is a trumpet, the trumpet sound is preferably radiated in a certain direction (the direction in which the bell is pointed). Alternatively, if the instrument is a guitar, for example, the guitar radiates in a wider viewing angle compared to the trumpet. The meta-information of a virtual source object may include the emission characteristic and the orientation of the emission characteristic in the reproduced reproduction scene. The meta-information may alternatively or additionally also include a spatial extent of the virtual source object in the reproduced playback scene. Based on the meta-information and the source signal, a virtual source object can be described two- or three-dimensionally in space.

Eine reproduzierte Wiedergabeszene kann beispielsweise auch ein Audioteil eines Filmes sein, also die Geräuschkulisse zum Film. Eine reproduzierte Wiedergabeszene kann beispielsweise mit einer Filmszene ganz oder teilweise übereinstimmen, so dass das virtuelles Quellenobjekt beispielsweise eine im Wiedergaberaum positionierte und richtungsabhängig sprechende Person oder ein sich unter Abgabe von Geräuschen im Raum der reproduzierten Wiedergabeszene bewegendes Objekt, wie etwa ein Zug oder ein Auto, sein kann.A reproduced playback scene can also be, for example, an audio part of a movie, ie the background noise of the movie. For example, a reproduced playback scene may be wholly or partially coincident with a movie scene, such that the virtual source object may be an object positioned in the playback room and directionally speaking, or an object moving in the room of the reproduced scene, such as a train or a car, emitting sounds. can be.

Vorrichtung 10 ist ausgebildet, um Lautsprechersignale zur Ansteuerung von Lautsprechern 14a-e zu erzeugen. Die Lautsprecher 14a-e können an oder in einem Wiedergaberaum 16 angeordnet. Der Wiedergaberaum 16 kann beispielsweise ein Konzert- oder Kinosaal sein, in welchem sich ein Hörer oder Zuschauer 17 befinden kann. Durch Erzeugen und Wiedergabe der Lautsprechersignale an den Lautsprechern 14a-e kann in dem Wiedergaberaum 16 eine Wiedergabeszene reproduziert werden, die auf den virtuellen Quellenobjekten 12a-c basiert. Vorrichtung 10 umfasst einen Modifizierer 18, der ausgebildet ist, um die Metainformationen eines oder mehrerer der virtuellen Quellenobjektes 12a-c zeitvariant zu modifizieren. Der Modifizierer 18 ist ferner ausgebildet, um die Metainformationen mehrerer virtueller Quellenobjekte einzeln, d.h. für jedes virtuelle Quellenobjekt 12a-c, oder für mehrere virtuellen Quellenobjekte zu modifizieren. Modifikation Beispielsweise ist der Modifizierer 18 ausgebildet, um die Position des virtuellen Quellenobjektes 12a-c in der reproduzierten Wiedergabeszene oder die Abstrahlcharakteristik des virtuellen Quellenobjektes 12a-c zu modifizieren.Device 10 is designed to generate loudspeaker signals for driving loudspeakers 14a-e. The speakers 14a-e may be placed on or in a playback room 16. The playback room 16 may be, for example, a concert or cinema hall in which a listener or viewer 17 may be located. By generating and reproducing the speaker signals to the speakers 14a-e, a reproducing scene based on the virtual source objects 12a-c can be reproduced in the reproducing room 16. Apparatus 10 includes a modifier 18 configured to time varying the meta information of one or more of the virtual source objects 12a-c. The modifier 18 is further configured to individually store the metadata of multiple virtual source objects, i. for each virtual source object 12a-c, or for multiple virtual source objects. Modification For example, the modifier 18 is configured to modify the position of the virtual source object 12a-c in the reproduced playback scene or the radiation characteristic of the virtual source object 12a-c.

In anderen Worten kann eine Anwendung von Dekorrelationsfiltern eine unkontrollierte Änderung der wiedergegebenen Szene bewirken, wenn Lautsprechersignale dekorreliert werden, ohne die resultierenden akustischen Effekte in dem Wiedergaberaum zu betrachten, wohingegen Vorrichtung 10 eine natürliche, d.h. kontrollierte Änderung der virtuellen Quellenobjekte ermöglicht. Durch eine zeitvariante Veränderung der gerenderten, d.h. reproduzierten, akustischen Szene durch eine Modifikation der Metainformationen derart, dass die Position oder die Abstrahlcharakteristik, d.h. die Quellenart, eines oder mehrerer virtueller Quellenobjekte 12a-c. Dies kann durch einen Zugang zum Wiedergabesystem, d.h. durch eine Anordnung des Modifizierers 18, ermöglicht werden. Modifikationen der Metainformationen der virtuellen Quellenobjekte 12a-c und mithin der reproduzierten akustischen Wiedergabeszene können intrinsisch, d.h. systemintern, kontrolliert werden, sodass eine Begrenzung der durch die Modifikation eintretenden Effekte möglich ist, beispielsweise indem die eintretenden Effekte von dem Hörer 17 nicht wahrgenommen oder als nicht störend empfunden werden.In other words, application of decorrelation filters may cause an uncontrolled change in the scene being reproduced if speaker signals are decorrelated without regard to the resulting acoustic effects in the playback room, whereas device 10 will be a natural, i. controlled change of the virtual source objects. By a time variant change of the rendered, i. reproduced the acoustic scene by modifying the meta-information such that the position or the radiation characteristic, i. the source type, one or more virtual source objects 12a-c. This can be achieved through access to the playback system, i. by an arrangement of the modifier 18. Modifications of the meta-information of the virtual source objects 12a-c and thus the reproduced acoustic reproduction scene may be intrinsic, i. intrinsically, controlled, so that a limitation of the effects occurring by the modification is possible, for example by the incoming effects of the listener 17 are not perceived or perceived as disturbing.

Vorrichtung 10 umfasst einen Renderer 22, der ausgebildet ist, um die Quellensignale der virtuellen Quellenobjekte 12a-c und die modifizierten Metainformationen in eine Vielzahl von Lautsprechersignalen zu überführen. Der Renderer 22 weist Komponentenerzeuger 23a-c und Signalkomponentenaufbereiter 24a-e auf. Der Renderer 22 ist ausgebildet, um mittels der Komponentenerzeuger 23a-c das Quellensignal des virtuellen Quellenobjektes 12a-c und die modifizierten Metainformationen so in Signalkomponenten zu überführen, dass ein Wellenfeld durch die Lautsprecher 14a-e erzeugbar ist und durch das Wellenfeld das virtuelle Quellenobjekt 12a-c an einer Position 25 innerhalb der reproduzierten akustischen Wiedergabeszene darstellbar ist. Die reproduzierte akustische Wiedergabeszene kann zumindest teilweise innerhalb oder außerhalb des Wiedergaberaumes 16 angeordnet sein. Die Signalkomponentenaufbereiter 24a-e sind ausgebildet, um die Signalkomponenten einer oder mehrerer virtueller Quellenobjekte zu Lautsprechersignalen zur Ansteuerung der Lautsprecher 14a-e aufzubereiten. An oder in einem Wiedergaberaum 16 kann, bspw. abhängig von der reproduzierten Wiedergabeszene und/oder einer Größe des Wiedergaberaumes 16 eine Vielzahl von Lautsprechern, von bspw. mehr als 10, 20, 30, 50, 300 oder 500 angeordnet oder anbringbar sein. In anderen Worten kann der Renderer als Multiple Input (virtuelle Quellenobjekte) Multiple Output (Lautsprechersignale) - MIMO - System beschrieben werden, der Eingangssignale einer oder mehrerer virtueller Quellenobjekte in Lautsprechersignale zu überführen. Die Komponentenerzeuger und/oder die Signalkomponentenaufbereiter können alternativ auch in zwei oder mehreren separaten Komponenten angeordnet sein.Apparatus 10 includes a renderer 22 configured to translate the source signals of the virtual source objects 12a-c and the modified meta-information into a plurality of loudspeaker signals. The renderer 22 includes component generators 23a-c and signal component renderers 24a-e. The renderer 22 is designed to use the component generators 23a-c to generate the source signal of the virtual source object 12a-c and the modified meta-information into signal components such that a wave field can be generated by the loudspeakers 14a-e and the wave source field represents the virtual source object 12a-c at a position 25 within the reproduced acoustic reproduction scene. The reproduced acoustic reproduction scene may be at least partially disposed inside or outside of the reproduction room 16. The signal component renderers 24a-e are configured to render the signal components of one or more virtual source objects into speaker signals for driving the speakers 14a-e. On or in a playback room 16, for example, depending on the reproduced playback scene and / or a size of the playback room 16, a plurality of speakers, of, for example, more than 10, 20, 30, 50, 300 or 500 arranged or attachable. In other words, the renderer can be described as a Multiple Input (Mimo) multiple output (loudspeaker signals) MIMO system that converts input signals of one or more virtual source objects into loudspeaker signals. Alternatively, the component generators and / or the signal component processors may be arranged in two or more separate components.

Der Renderer 22 kann alternativ oder zusätzlich eine Vorentzerrung derart umsetzen, dass in dem Wiedergaberaum 16 die reproduzierte Wiedergabeszene so wiedergegeben wird, als würde sie in einer Freifeldumgebung oder einer anders gearteten Umgebung, wie etwa ein Konzertsaal, wiedergegeben, d.h. der Renderer 22 kann Verzerrungen akustischer Signale, die von dem Wiedergaberaum 16 verursacht werden, ganz oder teilweise kompensieren, wie etwa durch eine Vorentzerrung. In anderen Worten ist der Renderer 22 ausgebildet, um für das darzustellende virtuelle Quellenobjekt 12a-c Lautsprechersignale zu erstellen.The renderer 22 may alternatively or additionally implement a pre-equalization such that in the reproduction room 16 the reproduced reproduction scene is rendered as if it were reproduced in a free-field environment or other environment such as a concert hall, i. the renderer 22 may partially or completely compensate for distortions of acoustic signals caused by the playback room 16, such as by pre-equalization. In other words, the renderer 22 is designed to generate loudspeaker signals for the virtual source object 12a-c to be displayed.

Werden mehrere virtuelle Quellenobjekte 12a-c in Lautsprechersignale überführt, so kann ein Lautsprecher 14a-e zu einem Zeitpunkt Ansteuersignale, die auf mehreren virtuellen Quellenobjekten 12a-c basieren, wiedergeben.If a plurality of virtual source objects 12a-c are converted into loudspeaker signals, a loudspeaker 14a-e may at one time reproduce drive signals based on a plurality of virtual source objects 12a-c.

Vorrichtung 10 umfasst Mikrophone 26a-d, die so an oder in dem Wiedergaberaum 16 anbringbar sind, so dass die von den Lautsprechern 14a-e erzeugten Wellenfelder von den Mikrophonen 26a-d erfasst werden können. Ein Systemberechner 28 der Vorrichtung 10 ist ausgebildet, um basierend auf den Mikrophonsignalen der Mehrzahl von Mikrophonen 26a-d und den Lautsprechersignalen eine Übertragungscharakteristik des Wiedergaberaumes 16 zu schätzen. Eine Übertragungscharakteristik des Wiedergaberaumes 16, d.h. eine Charakteristik, wie der Wiedergaberaum 16 die von den Lautsprechern 14a-e erzeugten Wellenfelder beeinflusst, kann beispielsweise durch eine variierende Anzahl von Personen, welche sich in dem Wiedergaberaum 16 aufhalten, durch Veränderungen von Mobiliar wie etwa eine veränderliche Kulisse des Wiedergaberaumes 16 oder durch eine veränderliche Position von Personen oder Gegenständen innerhalb des Wiedergaberaumes 16 verursacht sein. Beispielsweise können durch eine zunehmende Anzahl von Personen oder Objekten in dem Wiedergaberaum 16 Reflexionspfade zwischen Lautsprechern 14a-e und Mikrophonen 26a-d blockiert oder erzeugt werden. Die Schätzung der Übertragungscharakteristik kann auch als Systemidentifikation dargestellt werden. Sind die Lautsprechersignale korreliert, kann bei der Systemidentifikation das Mehrdeutigkeitsproblem auftreten.Device 10 comprises microphones 26a-d which may be attached to or in the display room 16 so that the wave fields generated by the loudspeakers 14a-e can be detected by the microphones 26a-d. A system calculator 28 of the apparatus 10 is configured to estimate a transmission characteristic of the playback room 16 based on the microphone signals of the plurality of microphones 26a-d and the loudspeaker signals. A transfer characteristic of the reproduction room 16, ie, a characteristic of how the reproduction room 16 influences the wave fields generated by the loudspeakers 14a-e can be represented, for example, by a varying number of persons residing in the reproduction room 16 by changes in furniture such as a variable scenery of the reproduction room 16 or by caused a variable position of persons or objects within the playback room 16. For example, by an increasing number of persons or objects in the playback room 16, reflection paths between speakers 14a-e and microphones 26a-d may be blocked or generated. The estimation of the transfer characteristic can also be represented as system identification. If the loudspeaker signals are correlated, the ambiguity problem can occur during system identification.

Der Renderer 22 kann ausgebildet sein, um ein zeitvariantes Rendering-System, basierend auf der zeitveränderlichen Übertragungscharakteristik des Wiedergaberaumes 16 zu implementieren, so dass eine veränderte Übertragungscharakteristik kompensierbar und eine Verringerung einer Audioqualität vermeidbar ist. In anderen Worten kann der Renderer 22 eine adaptive Entzerrung des Wiedergaberaumes 16 ermöglichen. Alternativ oder zusätzlich kann der Renderer 22 ausgebildet sein, um die erzeugten Lautsprechersignale mit Rauschsignalen zu überlagern eine Dämpfung zu den Lautsprechersignalen hinzuzufügen und/oder die Lautsprechersignale zu verzögern, indem die Lautsprechersignale bspw. unter Verwendung eines Dekorrelationsfilters gefiltert werden. Ein Dekorrelationsfilter kann bspw. für eine zeitvariante Phasenverschiebung der Lautsprechersignale genutzt werden. Durch einen Dekorrelationsfilter und/oder die Addition von Rauschsignalen kann eine zusätzliche Dekorrelation der Lautsprechersignale erreicht werden, beispielsweise, wenn Metainformationen bei einem virtuellen Quellenobjekt 12a-c nur in geringfügigem Umfang vom Modifizierer 18 modifiziert werden, sodass die vom Renderer 22 erzeugten Lautsprechersignale in einem Maß korreliert sind, welches für eine Wiedergabeszene reduziert werden soll.The renderer 22 may be configured to implement a time-varying rendering system based on the time-varying transmission characteristic of the rendering room 16 such that a changed transmission characteristic can be compensated and a reduction in audio quality can be avoided. In other words, the renderer 22 may enable adaptive equalization of the playback room 16. Alternatively or additionally, the renderer 22 may be configured to superimpose the generated loudspeaker signals with noise signals to add attenuation to the loudspeaker signals and / or to delay the loudspeaker signals by, for example, filtering the loudspeaker signals using a decorrelation filter. A decorrelation filter can, for example, be used for a time-variant phase shift of the loudspeaker signals. By decorrelation filtering and / or the addition of noise signals, additional decorrelation of the loudspeaker signals can be achieved, for example, if meta-information on a virtual source object 12a-c is modified only slightly by the modifier 18, so that the loudspeaker signals generated by the renderer 22 are to an extent are correlated, which is to be reduced for a playback scene.

Durch Modifikation der Metainformationen der virtuellen Quellenobjekte 12a-c mittels des Modifizierers 18 kann eine Dekorrelation der Lautsprechersignale und mithin eine Verringerung oder Vermeidung von Systeminstabilitäten erreicht werden kann. Eine Systemidentifikation kann verbessert werden, indem beispielsweise eine Veränderung, d.h. Modifikation der räumlichen Eigenschaften der virtuellen Quellenobjekte 12a-c ausgenutzt wird.By modifying the meta-information of the virtual source objects 12a-c by means of the modifier 18, a decorrelation of the loudspeaker signals and thus a reduction or avoidance of system instabilities can be achieved. A system identification can be improved, for example, by taking advantage of a change, ie modification of the spatial properties of the virtual source objects 12a-c.

Gegenüber einer Veränderung der Lautsprechersignale kann die Modifikation der Metainformationen zielgerichtet erfolgen und, nach psychoakustischen Kriterien, so erfolgen, dass der Hörer 17 der reproduzierten Wiedergabeszene die Modifikation nicht wahrnimmt oder sie als nicht störend empfindet. So kann eine Verschiebung der Position 25 eines virtuellen Quellenobjektes 12a-c in der reproduzierten Wiedergabeszene zu veränderten Lautsprechersignalen und mithin zu einer ganz oder teilweisen Dekorrelation der Lautsprechersignale führen, so dass auf ein Hinzufügen von Rauschsignalen oder eine Anwendung von nichtlinearen Filteroperationen, wie etwa in Dekorrelationsfiltern, vermieden werden kann. Wird beispielsweise ein Zug in der reproduzierten Wiedergabeszene dargestellt, so kann es beispielsweise für den Hörer 17 unbemerkt bleiben, wenn der entsprechende Zug mit einer großen Entfernung zu dem Hörer 17, wie etwa 200, 500 oder 1.000 m, um bspw. 1, 2 oder 5 m im Raum verschoben wird.In contrast to a change in the loudspeaker signals, the modification of the meta-information can be targeted and, according to psychoacoustic criteria, carried out in such a way that the listener 17 of the reproduced reproduction scene does not perceive the modification or does not find it disturbing. Thus, a shift of the position 25 of a virtual source object 12a-c in the reproduced playback scene may result in changed loudspeaker signals and thus in a partial decorrelation of the loudspeaker signals, thus adding noise signals or applying nonlinear filtering operations such as in decorrelation filters , can be avoided. For example, if a train is displayed in the reproduced playback scene, it may, for example, go unnoticed by the listener 17 if the corresponding train is at a great distance from the listener 17, such as 200, 500 or 1000 m, for example 1, 2 or 5 m in the room is shifted.

Mehrkanalreproduktionssysteme, wie WFS, wie sie beispielsweise in [BDV93] vorgeschlagen ist, Higher-Order-Ambisonics (HOA), wie sie beispielsweise in [Dan03] vorgeschlagen ist, oder ähnliche Verfahren können Wellenfelder mit mehreren virtuellen Quellen oder Quellenobjekten unter anderem durch Darstellen der virtuellen Quellenobjekte in Form von Punktquellen, Dipolquellen, Quellen mit nierenförmiger Abstrahlcharakteristik oder ebene Wellen abstrahlende Quellen reproduzieren. Wenn diese Quellen stationäre räumliche Eigenschaften, wie etwa ortsfeste Positionen der virtuellen Quellenobjekte oder unveränderliche Abstrahl- oder Richtcharakteristiken, kann eine konstante akustische Wiedergabeszene identifiziert werden, wenn eine entsprechende Korrelationsmatrix vollen Rang aufweist, wie es in Fig. 6 detailliert erläutert ist.Multi-channel reproduction systems, such as WFS, as suggested in [BDV93], Higher-Order Ambisonics (HOA), as proposed in [Dan03], for example, or similar methods can provide wave fields with multiple virtual sources or source objects, inter alia, by displaying the reproduce virtual source objects in the form of point sources, dipole sources, kidney-shaped radiation sources, or plane wave emitting sources. If these sources have stationary spatial characteristics, such as fixed positions of the virtual source objects or fixed radiation or directional characteristics, a constant acoustic reproduction scene can be identified if a corresponding correlation matrix has full rank, as shown in FIG Fig. 6 is explained in detail.

Vorrichtung 10 ist ausgebildet, um eine Dekorrelation der Lautsprechersignale durch eine Modifikation der Metainformationen der virtuellen Quellenobjekte 12a-c zu erzeugen und/oder eine zeitveränderliche Übertragungscharakteristik des Wiedergaberaumes 16 zu berücksichtigen.Device 10 is configured to generate a decorrelation of the loudspeaker signals by a modification of the metadata of the virtual source objects 12a-c and / or to take into account a time-varying transmission characteristic of the playback room 16.

Die Vorrichtung stellt eine zeitvariante Veränderung der reproduzierten akustischen Wiedergabeszene für WFS, HOA oder ähnliche Wiedergabemodelle dar, um die Lautsprechersignale zu dekorrelieren. Solch eine Dekorrelation kann eine Abhilfe sein, wenn das Problem der Systemidentifikation unterbestimmt ist. Im Gegensatz zu Lösungen aus dem Stand der Technik erlaubt Vorrichtung 10 eine kontrollierte Änderung der reproduzierten Wiedergabeszene, um eine hohe Qualität der WFS oder HOA Wiedergabe zu erhalten.The device represents a time variant variation of the reproduced acoustic reproduction scene for WFS, HOA or similar reproduction models to decorrelate the loudspeaker signals. Such a decorrelation can be a remedy if the problem of system identification is underdetermined. In contrast to prior art solutions, device 10 allows a controlled change of the reproduced playback scene to obtain a high quality of WFS or HOA reproduction.

Fig. 2 zeigt eine schematische Aufsicht auf einen Wiedergaberaum 16, an dem Lautsprecher 14a-h angeordnet sind. Vorrichtung 10 ist ausgebildet, um Lautsprechersignale basierend auf einem oder mehreren virtuellen Quellenobjekten 12a und/oder 12b zu erstellen. Eine wahrnehmbare Modifikation der Metainformationen der virtuellen Quellenobjekte 12a und/oder 12b kann von dem Hörer störend empfunden werden. Wird beispielsweise ein Ort oder eine Position des virtuellen Quellenobjektes 12a und/oder 12b zu stark verändert, so kann für den Hörer beispielweise der Eindruck entstehen, dass sich ein Instrument eines Orchesters im Raum bewegt. Alternativ, wenn die reproduzierte Wiedergabeszene zu einem Film gehört, kann der akustische Eindruck entstehen, dass sich das virtuelle Quellenobjekt 12a und/oder 12b mit einer akustischen Geschwindigkeit, die sich von einer durch die Bildfolge implizierten optischen Geschwindigkeit eines Objekts unterscheidet, so dass sich das virtuelle Quellenobjekt bspw. unterschiedlich schnell oder in eine unterschiedliche Richtung bewegt. Durch Veränderung der Metainformationen eines virtuellen Quellenobjektes 12a und/oder 12b innerhalb gewisser Intervalle oder Toleranzen kann ein wahrnehmbarer oder als störend empfundener Eindruck verringert oder verhindert werden. Fig. 2 shows a schematic plan view of a playback room 16, are arranged on the speaker 14a-h. Device 10 is configured to generate loudspeaker signals based on one or more virtual source objects 12a and / or 12b. Perceptible modification of the metadata of the virtual source objects 12a and / or 12b may be distracting to the listener. If, for example, a location or a position of the virtual source object 12a and / or 12b is changed too much, the listener may, for example, have the impression that an instrument of an orchestra is moving in space. Alternatively, if the reproduced playback scene belongs to a movie, the acoustic impression may arise that the virtual source object 12a and / or 12b differs at an acoustic velocity different from an optical speed of an object implied by the image sequence virtual source object, for example, moves at different speeds or in a different direction. By changing the meta-information of a virtual source object 12a and / or 12b within certain intervals or tolerances, a perceivable or annoying impression can be reduced or prevented.

Für eine Perzeption akustischer Szenen kann ein räumliches Hören in einer Median-Ebene, das bedeutet in einer Horizontalebene des Hörers 17, bedeutend sein, wohingegen ein räumliches Hören in der Sagittal-Ebene, d.h. eine linke und rechte Körperhälfte des Hörers 17 mittig trennende Ebene, eine untergeordnete Rolle spielen kann. Für Wiedergabesysteme, die ausgebildet sind, um dreidimensionale Szenen wiederzugeben, kann die Wiedergabeszene zusätzlich in der dritten Dimension geändert werden. Eine Lokalisierung von akustischen Quellen durch den Hörer 17 kann in der Sagittal-Ebene ungenauer sein als in der Median-Ebene. Es ist vorstellbar, die nachfolgend für zwei Dimensionen (Horizontalebene) definierten Grenzwerte für die dritte Dimension beizubehalten oder zu erweitern, da Grenzwerte, die aus einem zweidimensionalen Wellenfeld abgeleitet sind, sehr konservative Untergrenzen für mögliche Änderungen der gerenderten Szene in der dritten Dimension darstellen. Obwohl die folgenden Erläuterungen auf Wahrnehmungseffekte in zweidimensionalen Wiedergabeszenen in der Median-Ebene konzentriert sind, welche ein Optimierungskriterium für viele Wiedergabesysteme sind, gelten die Erläuterungen auch für dreidimensionale Systeme.For a perception of acoustic scenes, a spatial hearing in a median plane, that is in a horizontal plane of the earpiece 17, may be significant, whereas a spatial hearing in the sagittal plane, ie a left and right body half of the listener 17 center separating plane, play a minor role. For playback systems designed to render three-dimensional scenes, the playback scene may additionally be changed in the third dimension. A localization of acoustic sources by the listener 17 may be more inaccurate in the sagittal plane than in the median plane. It is conceivable to maintain or extend the third dimensional limits defined below for two dimensions (horizontal plane), since limits derived from a two-dimensional wave field represent very conservative lower limits for possible changes of the rendered scene in the third dimension. Although the following explanations are focused on perceptual effects in two-dimensional rendering scenes in the median plane, which are an optimization criterion for many rendering systems, the explanations also apply to three-dimensional systems.

Prinzipiell können verschiedene Arten von Wellenfeldern reproduziert werden, wie beispielsweise Wellenfelder von Punktquellen, ebene Wellen oder Wellenfelder von allgemeinen Mehrpolquellen, wie etwa Dipole. In einer zweidimensionalen Ebene, d.h. unter Berücksichtigung lediglich zweier Dimensionen, ist die wahrgenommene Position einer Punktquelle oder einer Mehrpolquelle durch eine Richtung und eine Entfernung beschreibbar, wohingegen ebene Wellen durch eine Einfallsrichtung beschreibbar sind. Der Hörer 17 kann die Richtung einer Schallquelle durch zwei räumliche Auslösereize lokalisieren, interaurale Pegelunterschiede (interaural level differences - ILDs) und interaurale Zeitunterschiede (interaural time differences - ITDs). Die Modifikation der Metainformationen eines jeweiligen virtuellen Quellenobjektes kann zu einer Veränderung der jeweiligen ILDs und/oder zu einer Veränderung der jeweiligen ITDs für den Hörer 17 führen.In principle, different types of wave fields can be reproduced, such as wave fields of point sources, plane waves or wave fields of general multipole sources, such as dipoles. In a two-dimensional plane, i. considering only two dimensions, the perceived position of a point source or a multipole source is describable by a direction and a distance, whereas plane waves are describable by an incident direction. The listener 17 can locate the direction of a sound source by two spatial triggering stimuli, interaural level differences (ILDs) and interaural time differences (ITDs). The modification of the meta-information of a respective virtual source object may lead to a change of the respective ILDs and / or to a change of the respective ITDs for the listener 17.

Die Entfernung einer Schallquelle kann bereits durch den absoluten monauralen Pegel wahrgenommen werden, wie es in [Bla97] beschrieben ist. In anderen Worten kann die Entfernung durch eine Lautstärke und/oder eine Entfernungsänderung durch eine Lautstärkenänderung wahrgenommen werden.The removal of a sound source can already be perceived by the absolute monaural level, as described in [Bla97]. In other words, the distance can be perceived by a volume and / or a distance change by a volume change.

Der interaurale Pegelunterschied beschreibt einen Pegelunterschied zwischen beiden Ohren des Hörers 17. Ein einer Schallquelle zugewandtes Ohr kann einem höheren Schalldruckpegel als ein der Schallquelle abgewandtes Ohr ausgesetzt sein. Dreht der Hörer 17 den Kopf, bis beide Ohren in etwa dem gleichen Schalldruckpegel ausgesetzt sind und der interaurale Pegelunterschied nur noch gering ist, so kann der Hörer der Schallquelle zugewandt sein oder alternativ mit dem Rücken zur Schallquelle positioniert sein. Eine Modifizierung der Metainformationen des virtuellen Quellenobjektes 12a oder 12b bspw. so dass das virtuelle Quellenobjekt an einem anderen Ort dargestellt wird oder eine veränderte Richtcharakteristik aufweist, kann an den Ohren des Hörers 17 zu einer unterschiedlichen Veränderung der jeweiligen Schalldruckpegel und mithin zu einer Veränderung des interauralen Pegelunterschiedes führen, wobei diese Änderung für den Hörer 17 wahrnehmbar sein kann.The interaural level difference describes a level difference between the two ears of the listener 17. An ear facing a sound source may be exposed to a higher sound pressure level than an ear facing away from the sound source. If the earpiece 17 turns its head until both ears are exposed to approximately the same sound pressure level and the interaural level difference is only slight, then the listener can face the sound source or alternatively be positioned with his back to the sound source. For example, modifying the meta-information of the virtual source object 12a or 12b such that the virtual source object is displayed at a different location or has a different directional characteristic can result in a different change in the respective sound pressure levels at the ears of the listener 17 and hence in a change in the interaural Level difference lead, this change may be perceptible to the listener 17.

Interaurale Zeitunterschiede können aus unterschiedlichen Laufzeiten zwischen einer Schallquelle und einem mit einer geringeren Entfernung bzw. mit einer größeren Entfernung angeordneten Ohr eines Hörers 17 resultieren, so dass eine von der Schallquelle emittierte Schallwelle eine größere Zeit zu dem weiter entfernt angeordneten Ohr benötigt. Eine Modifizierung der Metainformationen des virtuellen Quellenobjektes 12a oder 12b bspw. so dass das virtuelle Quellenobjekt an einem anderen Ort dargestellt wird, kann zu einer unterschiedlichen Veränderung der Abstände zwischen dem virtuellen Quellenobjekt und beiden Ohren des Hörers 17 und mithin zu einer Veränderung des interauralen Zeitunterschiedes führen, wobei diese Änderung für den Hörer 17 wahrnehmbar sein kann.Interaural time differences may result from different transit times between a sound source and an ear of a listener 17 located at a shorter distance or at a greater distance such that a sound wave emitted by the sound source requires a longer time to the ear further away. A modification of the metadata of the virtual source object 12a or 12b, for example, so that the virtual source object is displayed at a different location, can lead to a different change in the distances between the virtual source object and both ears of the listener 17 and thus to a change in the interaural time difference, this change for the listener 17 can be perceived.

Eine nicht wahrnehmbare oder nicht störende Änderung des ILD, kann je nach reproduziertem Szenario zwischen 0,6 dB und 2 dB liegen. Eine Variation eines ILD um 0,6 dB entspricht einer Abnahme des ILD von ca. 6,6 % oder einer Zunahme um ca. 7,2 %. Eine Änderung des ILD um 1 dB entspricht einer prozentualen Zunahme des ILD um ca. 12 % bzw. einer prozentualen Abnahme um 11 %. Eine Zunahme des ILD um 2 dB entspricht einer prozentualen Zunahme des ILD um ca. 26 %, wohingegen eine Abnahme um 2 dB einer prozentualen Abnahme von 21 % entspricht. Ein Wahrnehmungsgrenzwert für einen ITD kann von einem jeweiligen Szenario der akustischen Wiedergabeszene abhängig sein und bspw. 10, 20, 30 oder 40 µs betragen. Durch bei einer Modifikation der Metainformationen des virtuellen Quellenobjektes 12a oder 12b möglicherweise nur gering, d.h. im Bereich von einigen 0,1 dB, veränderten ILDs, kann eine Veränderung der ITDs möglicherweise von dem Hörer 17 möglicherweise früher wahrgenommen oder als störend empfunden werden als eine Veränderung des ILD.An imperceptible or non-annoying change in the ILD may be between 0.6 dB and 2 dB, depending on the scenario being reproduced. A 0.6 dB ILD variation corresponds to a decrease in the ILD of approximately 6.6% or an increase of approximately 7.2%. A 1 dB change in ILD corresponds to a percentage increase in ILD of approximately 12% and a percentage decrease of 11%, respectively. An increase in ILD by 2 dB corresponds to a percentage increase in ILD of approximately 26%, whereas a decrease of 2 dB corresponds to a percentage decrease of 21%. A perception threshold for an ITD may be dependent on a particular scenario of the acoustic playback scene, such as 10, 20, 30, or 40 μs. By modifying the meta-information of the virtual source object 12a or 12b may be low, i. In the range of a few 0.1 dB, changed ILDs, a change in the ITDs may possibly be perceived earlier by the handset 17 or be perceived as disturbing than a change in the ILD.

Die Modifikation der Metainformationen beeinflusst die ILDs möglicherweise nur geringfügig, wenn der Abstand einer Schallquelle zum Hörer 17 gering verschoben wird. ITDs können aufgrund der früheren Wahrnehmbarkeit und der linearen Veränderung bei einem Positionswechsel eine strengere Einschränkung für eine nicht hörbare oder nicht störende Veränderung der reproduzierten Wiedergabeszene darstellen. Werden ITDs von 30 µs zugelassen, kann dies zu einer maximalen Änderung einer Quellenrichtung zwischen der Schallquelle und dem Hörer 17 von bis zu α1 = 3° für frontal, d.h. in einer Betrachtungsrichtung 32 oder einem Frontalbereich 34a, 34b des Hörers 17, angeordnete Schallquellen und/oder eine Veränderung von bis zu α2 = 10° für lateral, d.h. seitlich, angeordnete Schallquellen. Eine seitlich angeordnete Schallquelle kann sich in einem der Seitenbereiche 36a oder 36b befinden, die sich zwischen den Frontalbereichen 34a und 34b erstrecken. Die Frontalbereiche 34a und 34b können beispielsweise derart definiert sein, dass sich in einem Winkel von ± 45° bezüglich der Blickrichtung 32 der Frontalbereich 34a des Hörers 17 und ± 45° entgegen der Blickrichtung der Frontalbereich 34b erstreckt, sodass der Frontalbereich 34b im Rücken des Hörers angeordnet sein kann. Alternativ oder zusätzlich können die Frontalbereiche 34a und 34b auch einen kleinere oder größeren Winkel umfassen bzw. voneinander verschiedene Winkelbereiche umfassen, so dass beispielsweise der Frontalbereich 34a einen größeren Winkelbereich als der Frontalbereich 34b umfasst. Prinzipiell können Frontalbereiche 34a und 34b und/oder Seitenbereiche 36a und 36b unabhängig von einander zusammenhängend oder beabstandet zueinander angeordnet sein. Die Blickrichtung 32 kann bspw. durch einen Stuhl oder Sessel auf oder in welchem der Hörer 14 sitzt oder durch eine Richtung, in welcher der Hörer 17 auf eine Leinwand blickt beeinflusst sein.The modification of the meta-information may only slightly affect the ILDs if the distance from one sound source to the listener 17 is slightly shifted. ITDs may present a more stringent constraint for inaudible or non-disturbed alteration of the reproduced playback scene due to the earlier perceptibility and linear change in position change. If ITDs of 30 μs are permitted, this can lead to a maximum change of a source direction between the sound source and the listener 17 of up to α 1 = 3 ° for frontally, ie in a viewing direction 32 or a frontal area 34a, 34b of the listener 17, arranged sound sources and / or a change of up to α 2 = 10 ° for laterally, ie laterally arranged sound sources. A laterally disposed sound source may be located in one of the side regions 36a or 36b extending between the frontal regions 34a and 34b. The frontal areas 34a and 34b may be defined, for example, such that at an angle of ± 45 ° with respect to the viewing direction 32, the frontal area 34a of the earpiece 17 and ± 45 ° counter to the viewing direction, the frontal area 34b extends, so that the frontal area 34b in the back of the listener can be arranged. Alternatively or additionally, the frontal regions 34a and 34b may also comprise a smaller or larger angle or comprise different angular ranges from one another, such that, for example, the frontal region 34a comprises a larger angular range than the frontal region 34b. In principle, frontal regions 34a and 34b and / or side regions 36a and 36b can be arranged independently of one another or spaced from one another. The viewing direction 32 can, for example, be seated on or in which the handset 14 is seated or by a chair in which the handset 17 looks at a screen.

In anderen Worten kann Vorrichtung 10 ausgebildet sein, um die Blickrichtung 32 des Hörers 17 zu berücksichtigen, so dass frontal angeordnete Schallquellen wie das virtuelle Quellenobjekt 12a um bis zu α1 = 3° und lateral angeordnete Schallquellen wie das virtuelle Quellenobjekt 12b um bis zu α2 =10° bezüglich ihrer Richtung modifiziert werden. Gegenüber einem System, wie es in [SHK13] vorgeschlagen ist, kann Vorrichtung 10 eine bezüglich der virtuellen Quellenobjekte 12a und 12b individuelle Verschiebung eines Quellenobjektes ermöglichen, wohingegen in [SHK13] lediglich die reproduzierte Wiedergabeszene als ein Ganzes rotiert werden kann. In anderen Worten hat ein System, wie es bspw. [SHK13] beschrieben ist, keine Informationen über die gerenderte Szene sondern berücksichtigt Informationen über die erzeugten Lautsprechersignale. Vorrichtung 10 ändert die der Vorrichtung 10 bekannte gerenderte Szene.In other words, device 10 may be designed to take into account the viewing direction 32 of the earpiece 17, such that frontally arranged sound sources such as the virtual source object 12a are up to α 1 = 3 ° and laterally arranged sound sources such as the virtual source object 12b up to α 2 = 10 ° be modified with respect to their direction. As opposed to a system as proposed in [SHK13], apparatus 10 may enable a displacement of a source object individually with respect to the virtual source objects 12a and 12b, whereas in [SHK13], only the reproduced playback scene as a whole can be rotated. In other words, a system as described, for example, [SHK13] has no information about the rendered scene but takes into account information about the generated speaker signals. Device 10 changes the rendered scene known to device 10.

Während Änderungen der reproduzierten Wiedergabeszene durch Änderung der Quellenrichtung um 3° bzw. 10° möglicherweise für den Hörer 17 nicht wahrnehmbar sind, ist es ebenfalls vorstellbar, wahrnehmbare Wechsel der reproduzierten Wiedergabeszene zu akzeptieren, die als nicht störend empfunden werden können. So kann bspw. eine Änderung des ITD um bis zu 40 µs oder 45 µs zugelassen werden. Zusätzlich kann bspw. eine Rotation der gesamten akustischen Szene um bis zu 23° von vielen oder den meisten Hörern als nicht störend empfunden werden [SHK13]. Dieser Grenzwert kann durch eine unabhängige Modifikation der individuellen Quellen oder Richtungen aus denen die Quellen wahrgenommen werden, um wenige bis einige Grad erhöht werden, so das seine Verschiebung der akustischen Wiedergabeszene um bis zu 28°, 30° oder 32° möglich sein kann.While changes in the reproduced playback scene by changing the source direction by 3 ° or 10 ° may not be perceptible to the listener 17, it is also conceivable to accept perceptible changes in the reproduced playback scene that may be perceived as non-irritating. For example, a change of the ITD of up to 40 μs or 45 μs can be permitted. In addition, for example, a rotation of the entire acoustic scene by up to 23 ° can be perceived by many or most listeners as not disturbing [SHK13]. This limit can be increased by a few to several degrees by independently modifying the individual sources or directions from which the sources are perceived, so that its displacement of the acoustic playback scene by up to 28 °, 30 ° or 32 ° can be possible.

Der Abstand 38 einer akustischen Quelle, wie etwa einem virtuellen Quellenobjekt, kann möglicherweise von einem Hörer nur ungenau wahrgenommen werden. Experimente zeigen, dass eine Variation des Abstandes 38 von bis zu 25 % für Hörer in der Regel nicht wahrgenommen oder als störend empfunden wird, was eine eher starke Variation des Quellenabstandes erlaubt, wie es beispielsweise in [Bla97] beschrieben ist.The distance 38 of an acoustic source, such as a virtual source object, may possibly be inaccurately perceived by a listener. Experiments show that a variation of the distance 38 of up to 25% for listeners is usually not perceived or bothersome, which allows a rather strong variation of the source distance, as described for example in [Bla97] is.

Eine Periode bzw. ein Zeitabstand zwischen Änderungen in der reproduzierten Wiedergabeszene kann einen konstanten oder variablen Zeitabstand zwischen einzelnen Änderungen aufweisen, wie etwa 5 Sekunden, 10 Sekunden oder 15 Sekunden, um eine hohe Audioqualität zu gewährleisten. Die hohe Audioqualität kann dadurch erreicht werden, dass ein Intervall von ca. 10 Sekunden zwischen Szenenänderungen bzw. Änderungen von Metainformationen einer oder mehrerer virtueller Quellenobjekte eine genügend hohe Dekorrelation der Lautsprechersignale ermöglicht und die Seltenheit der Änderungen bzw. Modifikationen dazu beiträgt, dass Änderungen der Wiedergabeszene nicht wahrnehmbar oder nicht störend sind.A period between changes in the reproduced playback scene may have a constant or variable interval between individual changes, such as 5 seconds, 10 seconds, or 15 seconds, to ensure high audio quality. The high audio quality can be achieved by allowing an interval of about 10 seconds between scene changes or changes in meta-information of one or more virtual source objects, a sufficiently high decorrelation of the speaker signals and the rarity of the changes or modifications contributes to changes in the playback scene not perceptible or disturbing.

Eine Variation oder Modifikation der Abstrahlcharakteristiken einer allgemeinen Mehrpolquelle kann die ITDs unbeeinflusst lassen, wohingegen die ILDs beeinflusst werden können. Dies kann beliebige Modifizierungen der Abstrahlcharakteristiken ermöglichen, die solange als von einem Hörer 17 unbemerkt oder als nicht störend wahrgenommen werden, solange die ILDs am Ort des Hörers kleiner gleich dem jeweiligen Schwellwert (0,6 dB bis 2 dB) sind.Variation or modification of the radiation characteristics of a general multipole source can leave the ITDs unaffected, whereas the ILDs can be affected. This may allow for any modifications to the radiation characteristics that are unnoticed or unnoticed by a listener 17 as long as the ILDs at the listener location are less than or equal to the respective threshold (0.6 dB to 2 dB).

Dieselben Grenzwerte können für eine monaurale Pegeländerung, d.h. bezüglich eines Ohres des Hörers 17, bestimmt werden.The same limits may be used for a monaural level change, i. with respect to an ear of the earpiece 17.

Vorrichtung 10 ist ausgebildet, um ein ursprüngliches virtuelles Quellenobjekt 12a, mit einer zusätzlichen, abgebildeten virtuellen Quelle 12'a zu überlagern, die das gleiche oder ein ähnliches Quellensignal emittiert. In anderen Worten ist der Modifizierer 18 ausgebildet, um ein Abbild des virtuellen Quellenobjektes (12a) zu erstellen. Die abgebildete virtuelle Quelle 12'a kann in etwa an einer virtuellen Position P1 angeordnet sein, an welcher das virtuelle Quellenobjekt 12a ursprünglich angeordnet ist. Die virtuelle Position P1 weist einen Abstand 38 zu dem Hörer 17 auf. In anderen Worten kann die zusätzliche abgebildete virtuelle Quelle 12'a eine vom Modifizierer 18 erstellte abgebildete Version des virtuellen Quellenobjektes 12a sein, so dass die abgebildete virtuelle Quelle 12'a das virtuelle Quellenobjekt 12 ist. In anderen Worten kann das virtuelle Quellenobjekt 12a durch den Modifizierer 18 in das abgebildete virtuelle Quellenobjekt 12'a abgebildet worden sein. Das virtuelle Quellenobjekt 12a kann durch die Modifikation der Metainformationen bspw. an eine virtuelle Position P2 mit einem Abstand 42 zu dem abgebildeten virtuellen Quellenobjekt 12'a und einem Abstand 38' zu dem Hörer 17 bewegt werden. Alternativ oder zusätzlich ist vorstellbar, dass der Modifizierer 18 die Metainformationen des Abbildes 12'a modifiziert.Device 10 is configured to overlay an original virtual source object 12a, with an additional mapped virtual source 12'a that emits the same or a similar source signal. In other words, the modifier 18 is configured to create an image of the virtual source object (12a). The imaged virtual source 12'a can be arranged approximately at a virtual position P 1 at which the virtual source object 12a is originally arranged. The virtual position P 1 has a distance 38 to the handset 17. In other words, the additional mapped virtual source 12'a may be an imaged version of the virtual source object 12a created by the modifier 18 such that the mapped virtual source 12'a is the virtual source object 12. In other words, the virtual source object 12a may have been imaged by the modifier 18 into the mapped virtual source object 12'a. The virtual source object 12a by the modification of the meta information for example. At a virtual position P 2 at a distance 42 to the mapped virtual source object 12'a and a distance 38 'are moved to the handset 17. Alternatively or additionally, it is conceivable that the modifier 18 modifies the meta-information of the image 12'a.

Ein Bereich 43 kann dargestellt werden, als eine Teilfläche eines Kreises mit einem Abstand 41 um das abgebildete virtuelle Quellenobjekt 12'a, der einen Abstand von zumindest dem Abstand 38 zu dem Hörer 17 aufweist. Ist der Abstand 38' zwischen dem modifizierten virtuellen Quellenobjekt 12a größer, als der Abstand 38 zwischen der abgebildeten virtuellen Quelle 12'a, sodass das modifizierte Quellenobjekt 12a innerhalb des Bereiches 43 angeordnet ist, kann das virtuelle Quellenobjekt 12a in dem Bereich 43 um das abgebildete virtuelle Quellenobjekt 12'a bewegt werden, ohne, dass das abgebildete virtuelle Quellenobjekt 12'a und das virtuelle Quellenobjekt 12 als separate akustische Objekte wahrgenommen werden. Der Bereich 43 kann bis zu 5, 10 oder 15 m um das abgebildete virtuelle Quellenobjekt 12'a herum reichen und von einem Kreis mit dem Radius R1, der dem Abstand 38 entspricht, begrenzt sein.A region 43 can be represented as a partial area of a circle with a distance 41 around the imaged virtual source object 12'a, which has a distance of at least the distance 38 from the receiver 17. If the distance 38 'between the modified virtual source object 12a is greater than the distance 38 between the imaged virtual source 12'a, so that the modified source object 12a is located within the area 43, the virtual source object 12a may be in the area 43 around that shown virtual source object 12'a without the imaged virtual source object 12'a and the virtual source object 12 being perceived as separate acoustic objects. The region 43 can extend up to 5, 10 or 15 m around the imaged virtual source object 12'a and be bounded by a circle with the radius R 1 corresponding to the distance 38.

Alternativ oder zusätzlich kann Vorrichtung 10 ausgebildet sein, um den Präzedenz-Effekt, auch bekannt als Haas-Effekt auszunutzen, wie er in [Bla97] beschrieben ist. Gemäß einer Beobachtung von Haas kann eine akustische Reflexion einer Schallquelle, die bis zu 50 ms nach dem direkten, beispielweise unreflektierten, Anteil des Schalls bei dem Hörer 17 ankommt, nahezu perfekt in die räumliche Wahrnehmung der ursprünglichen Quelle aufgenommen werden. Das heißt, dass zwei voneinander getrennte akustische Quellen als eine wahrnehmbar sind.Alternatively or additionally, device 10 may be configured to take advantage of the precedence effect, also known as the Haas effect, as described in [Bla97]. According to a Haas observation, an acoustic reflection of a sound source arriving at the listener 17 up to 50 ms after the direct, for example unreflected, portion of the sound can be almost perfectly recorded in the spatial perception of the original source. That is, two separate acoustic sources are perceptible as one.

Fig. 3 zeigt eine schematische Übersicht zur Modifikation von Metainformationen verschiedener virtuellen Quellenobjekten 121-125 in einer Vorrichtung 30 zur Erzeugung einer Mehrzahl von dekorrelierten Lautsprechersignalen. Obwohl Fig. 3 und die zugehörigen Erläuterungen für eine klare Darstellung zweidimensional gehalten sind, gelten alle Beispiele auch für den dreidimensionalen Fall. Fig. 3 shows a schematic overview of the modification of meta-information of various virtual source objects 121-125 in a device 30 for generating a plurality of decorrelated speaker signals. Even though Fig. 3 and the explanations for a clear representation are kept two-dimensional, all examples also apply to the three-dimensional case.

Das virtuelle Quellenobjekt 121 ist eine räumlich begrenzte Quelle, wie etwa eine Punktquelle. Die Metainformationen des virtuellen Quellenobjektes 121 können beispielsweise so modifiziert werden, dass das virtuelle Quellenobjekt 121 über mehrere Intervallschritte auf einer Kreisbahn bewegt wird.The virtual source object 121 is a spatially limited source, such as a point source. The meta-information of the virtual source object 121 can be modified, for example, such that the virtual source object 121 is moved on a circular path over a plurality of interval steps.

Das virtuelle Quellenobjekt 122 ist ebenfalls eine räumlich begrenzte Quelle wie etwa eine Punktquelle. Eine Änderung der Metainformationen des virtuellen Quellenobjektes 122 kann beispielsweise derart erfolgen, dass die Punktquelle über mehrere Intervallschritte unregelmäßig in einem begrenzten Bereich oder Volumen bewegt wird. Das Wellenfeld der virtuellen Quellenobjekte 121 und 122 kann allgemein modifiziert werden, indem die Metainformationen modifiziert werden, so dass die Position des jeweiligen virtuellen Quellenobjektes 121 oder 122 modifiziert wird. Prinzipiell ist dies für ein beliebiges virtuelles Quellenobjekt mit einer begrenzten räumlichen Ausdehnung, wie etwa ein Dipol oder eine Quelle mit einer nierenförmigen Abstrahlcharakteristik, möglich.The virtual source object 122 is also a spatially limited source such as a point source. A change in the metadata of the virtual source object 122 may, for example, take place such that the point source is moved irregularly in a limited area or volume over a plurality of interval steps. The wave field of the virtual source objects 121 and 122 may be modified in general by modifying the meta information so that the position of the respective virtual source object 121 or 122 is modified. In principle, this is possible for any virtual source object with a limited spatial extent, such as a dipole or a source with a kidney-shaped radiation characteristic.

Das virtuelle Quellenobjekt 123, repräsentiert eine ebene Schallquelle repräsentiert, und kann bezüglich der angeregten ebenen Welle variiert werden. Durch Modifikation der Metainformationen kann ein Abstrahlwinkel des virtuellen Quellenobjektes 123 und/oder ein Einfallswinkel auf den Hörer 17 beeinflusst werden.The virtual source object 123, representing a planar sound source, may be varied with respect to the excited plane wave. By modifying the meta-information, an emission angle of the virtual source object 123 and / or an angle of incidence on the receiver 17 can be influenced.

Das virtuelle Quellenobjekt 124 ist ein virtuelles Quellenobjekt mit einer begrenzten räumlichen Ausdehnung, wie etwa eine Dipolquelle mit einer richtungsabhängigen Abstrahlcharakteristik, wie es durch die Kreislinien angedeutet ist. Zur Veränderung bzw. Modifikation der Metainformationen des virtuellen Quellenobjektes 124 kann die richtungsabhängige Abstrahlcharakteristik rotiert werden.The virtual source object 124 is a virtual source object having a limited spatial extent, such as a dipole source having a directional radiation characteristic, as indicated by the circles. For changing or modifying the meta-information of the virtual source object 124, the direction-dependent emission characteristic can be rotated.

Für richtungsabhängige virtuelle Quellenobjekte, wie beispielsweise das virtuelle Quellenobjekt 125 mit einer nierenförmigen Abstrahlcharakteristik, können die Metainformationen so modifiziert werden, dass das Abstrahlmuster abhängig vom jeweiligen Zeitpunkt modifiziert ist. Für das virtuelle Quellenobjekt 125 ist dies beispielshaft durch einen Wechsel von einer nierenförmigen Abstrahlcharakteristik (durchgezogene Linie) zu einem hypernierenförmigen Richtcharakteristik (gestrichelte Linie) dargestellt. Für omnidirektionale virtuelle Quellenobjekte bzw. Schallquellen kann eine zusätzliche, zeitvariante richtungsabhängige Richtcharakteristik addiert bzw. erzeugt werden.For directional virtual source objects, such as the virtual source object 125 having a kidney-shaped radiation characteristic, the meta-information may be modified so that the radiation pattern is modified depending on the particular time. For the virtual source object 125, this is exemplified by a change from a kidney-shaped radiation characteristic (solid line) to a hypercardioid directional characteristic (dashed line). For omnidirectional virtual source objects or sound sources, an additional, time-variant direction-dependent directional characteristic can be added or generated.

Die verschiedenen Möglichkeiten, wie etwa eine Änderung der Position eines virtuellen Quellenobjektes wie eine Punktquelle oder Quelle mit begrenzter räumlicher Ausdehnung, eine Änderung des Einfallswinkels einer ebenen Welle, eine Änderung der Abstrahlcharakteristik, eine Rotation der Abstrahlcharakteristik oder ein Hinzufügen einer richtungsabhängigen Richtcharakteristik zu einem omnidirektional abstrahlenden Quellenobjekt, können miteinander kombiniert werden. Hierbei können die Parameter, welche für das jeweilige Quellenobjekt als zu modifizieren gewählt oder bestimmt werden, beliebig und voneinander verschieden sein. Ferner kann die Art der Änderung der räumlichen Eigenschaften sowie eine Geschwindigkeit der Änderung derart gewählt werden, dass die Änderung der reproduzierten Wiedergabeszene entweder von einem Hörer unbemerkt bleibt oder bezüglich der Wahrnehmung durch den Hörer akzeptabel ist. Darüber hinaus können die räumlichen Eigenschaften für zeitlich individuelle Frequenzbereiche unterschiedlich variiert werden.The various possibilities, such as changing the position of a virtual source object such as a point source or source with limited spatial extent, a change in the angle of incidence of a plane wave, a change of the radiation pattern, a rotation of the radiation characteristic or adding a directional directional characteristic to an omnidirectional radiating Source object, can be combined with each other. Here, the parameters which are selected or determined to be modified for the respective source object may be any and different. Further, the manner of changing the spatial characteristics as well as a speed of change may be chosen such that the change of the reproduced scene of reproduction either goes unnoticed by a listener or is acceptable in the perception by the listener. In addition, the spatial characteristics for temporally individual frequency ranges can be varied differently.

Im Nachfolgenden wird anhand von Fig. 4 unter Verweis auf Fig. 5c und Fig. 6c ein aus einer Vielzahl von möglichen Aufbauten zur Verifikation der erfindungsgemäßen Erkenntnisse beschrieben. Fig. 5c zeigt einen beispielhaften Verlauf einer Amplitudenoszillation eines virtuellen Quellenobjektes über die Zeit. In der Fig. 6c wird ein Signalmodell einer Erzeugung dekorrelierter Lautsprechersignale durch eine Veränderung bzw. Modifikation der akustischen Wiedergabeszene erläutert. Dabei handelt es sich um einen Prototypen zur Darstellung der Effekte. Der Prototyp ist bspw. bezüglich der verwendeten Lautsprecher und/oder Mikrophone, der Abmessungen und/oder Abstände zwischen Bauteilen experimentell aufgebaut.The following is based on Fig. 4 with reference to Fig. 5c and Fig. 6c one of a variety of possible structures for verification of the findings of the invention described. Fig. 5c shows an exemplary course of an amplitude oscillation of a virtual source object over time. In the Fig. 6c For example, a signal model of decorrelated speaker signal generation by a modification of the acoustic reproducing scene will be explained. It is a prototype to represent the effects. The prototype is, for example, constructed experimentally with regard to the loudspeakers and / or microphones used, the dimensions and / or distances between components.

Fig. 4 zeigt eine schematische Anordnung von Lautsprechern und Mikrophonen in einem experimentellen Prototypen. Eine beispielhafte Anzahl von NL = 48 Lautsprechern ist in einem Lautsprechersystem 14S angeordnet. Die Lautsprecher sind äquidistant auf einer Kreislinie mit einem Radius von bspw. 1,5 m angeordnet, so dass sich ein beispielhafter Winkelabstand von 2 π/48 = 7,5° ergibt. Eine exemplarische Anzahl von NM = 10 Mikrophonen ist in einem Mikrophonsystem 26S auf einer Kreislinie mit einem Radius RM von bspw. 0,05 m äquidistant angeordnet, so dass die Mikrophone einen Winkel von 36° zueinander aufweisen können. Für Testzwecke ist das Setup in einem Raum (Einhausung des LEMS) mit einer Nachhallzeit T60 von ca. 0,3 Sekunden angeordnet. Die Impulsantworten können mit einer Abtastfrequenz von 44,1 kHz gemessen, auf eine Abtastrate von 11025 Hz konvertiert und auf eine Länge von 1024 Messpunkten geschnitten werden, was der Länge der adaptiven Filter für das AEC entspricht. Das LEMS wird durch eine Faltung erhaltener Impulsantworten ohne Rauschen auf dem Mikrophonsignal (Near-End-Rauschen) oder lokalen Schallquellen innerhalb des LEMS simuliert. Diese idealen Laborbedingungen werden ausgewählt, um den Einfluss der vorgeschlagenen Methode auf die Konvergenz des Adaptionsalgorithmus von anderen Einflüssen zu trennen. Weitere Experimente, bspw. mit modelliertem Near-End-Rauschen können zu äquivalenten Ergebnissen führen. Fig. 4 shows a schematic arrangement of speakers and microphones in an experimental prototype. An exemplary number of N L = 48 loudspeakers is arranged in a loudspeaker system 14S. The loudspeakers are arranged equidistantly on a circular line with a radius of, for example, 1.5 m, so that an exemplary angular distance of 2π / 48 = 7.5 ° results. An exemplary number of N M = 10 microphones is arranged equidistantly in a microphone system 26S on a circular line with a radius R M of, for example, 0.05 m, so that the microphones can have an angle of 36 ° to one another. For test purposes, the setup is arranged in a room (enclosure of the LEMS) with a reverberation time T 60 of about 0.3 seconds. The impulse responses can be measured at a sampling frequency of 44.1 kHz, converted to a sampling rate of 11025 Hz and cut to a length of 1024 measurement points, which is the length of the adaptive filters for the AEC. The LEMS is simulated by convolution of received impulse responses without noise on the microphone signal (near-end noise) or local sound sources within the LEMS. These ideal laboratory conditions are selected to separate the influence of the proposed method on the convergence of the adaptation algorithm from other influences. Further experiments, for example with modeled near-end noise can lead to equivalent results.

Das Signalmodell wird in Figur 6c erläutert. Dort werden die dekorrelierten Lautsprechersignale x'(k) in das LEMS H eingegeben, welches dann durch eine Übertragungsfunktion Hest(n) basierend auf den Beobachtungen der dekorrelierten Lautsprechersignale x'(k) und den resultierenden Mikrophonsignalen d(k) identifiziert werden können. Die Fehlersignale e(k) können Reflektionen von Lautsprechersignalen an der Einhausung, wie etwa das verbleibende Echo erfassen. Für das AEC kann ein generalisierter adaptive Filteralgorithmus im Frequenzbereich mit einem exponentiellen Gedächtnisfaktor λ = 0,95, einer Schrittweite µ = 0,5 (mit 0 ≤ µ ≤ 1) und einer Rahmenverschiebung von LF = 512 genutzt, wie es in [SHK13], [BBK03] vorgeschlagen wird, angewendet werden.The signal model is in FIG. 6c explained. There, the decorrelated loudspeaker signals x '(k) are input to the LEMS H, which can then be identified by a transfer function H est (n) based on the observations of the decorrelated loudspeaker signals x ' (k) and the resulting microphone signals d (k). The error signals e (k) can detect reflections from speaker signals on the enclosure, such as the remaining echo. For the AEC, a generalized adaptive filter algorithm in the frequency domain with an exponential memory factor λ = 0.95, a step size μ = 0.5 (with 0 ≤ μ ≤ 1) and a frame shift of L F = 512 can be used, as described in [SHK13 ], [BBK03] is proposed to be applied.

Ein Maß für die erreichte Systemidentifikation ist als normierter Systemabstand (Normalized Misalignment - NMA) bezeichnet und kann durch die Berechnungsvorschrift Δ h n = 20 log 10 H est n H F H F ,

Figure imgb0001
berechnet werden, wobei ∥·∥F die Frobenius-Norm bezeichnet und N der Blockzeitindex ist. Ein geringer Wert des Systemabstandes bezeichnet eine Systemidentifikation (Schätzung) mit einer geringen Abweichung zum realen System.A measure of the achieved system identification is referred to as Normalized Misalignment (NMA) and can be determined by the calculation rule Δ H n = 20 log 10 H est n - H F H F .
Figure imgb0001
where ∥ · ∥ F denotes the Frobenius norm and N is the block time index. A small value of the system distance denotes a system identification (estimation) with a small deviation from the real system.

Die Relation zwischen n und k kann durch n = floor(k/LF) angegeben werden, wobei floor(·) der "floor"-Operator bzw. die Gaußklammer ist, also der Quotient abgerundet wird. Zusätzlich kann ein erreichte Echounterdrückung betrachtet werden, die bspw. mittels des Echo Return Loss Enhancement (ERLE) beschrieben werden kann, um eine bessere Vergleichbarkeit zu [SHK13] zu ermöglichen.The relation between n and k can be given by n = floor (k / L F ), where floor (·) is the "floor" operator or the Gaussian bracket, ie the quotient is rounded off. In addition, an achieved echo suppression can be considered, which can be described, for example, by means of the Echo Return Loss Enhancement (ERLE), in order to allow better comparability with [SHK13].

Die ERLE ist definiert als ERLE k = 20 log 10 d k 2 e k 2 ,

Figure imgb0002
wobei ∥·∥2 die Euklidische Norm beschreibt.The ERLE is defined as ALDER k = 20 log 10 d k 2 e k 2 .
Figure imgb0002
where ∥ · ∥ 2 describes the Euclidean norm.

In einem ersten Experiment werden die Lautsprechersignale gemäß der Theorie zur Wellenfeldsynthese, wie sie bspw. in [BDV93] vorgeschlagen ist, bestimmt, um vier ebene Wellen gleichzeitig mit um αq variierenden Einfallswinkeln zu synthetisieren. αq ist durch 0, π/2, π und 3 π/2 für die Quellen q = 1,2,...., NS = 4 gegeben. Die resultierenden zeitvarianten Einfallswinkel können durch ϕ q n = α q + ϕ a sin 2 π n L P ,

Figure imgb0003
beschrieben werden, wobei ϕa die Amplitude der Einfallswinkeloszillation und LP die Periodendauer der Einfallswinkeloszillation ist, wie sie exemplarisch in Fig. 5c veranschaulicht wird. Für die Quellensignale wurden untereinander unkorrelierte Signale weißen Rauschens verwendet, so dass alle 48 Lautsprecher mit einer gleichen durchschnittlichen Leistung betrieben werden können.In a first experiment, the loudspeaker signals are determined according to the theory of wave field synthesis, as proposed for example in [BDV93], in order to synthesize four plane waves simultaneously with angles of incidence varying by α q . α q is given by 0, π / 2, π and 3 π / 2 for the sources q = 1,2, ...., N S = 4. The resulting time-variant angles of incidence can by φ q n = α q + φ a sin 2 π n L P .
Figure imgb0003
where φ a is the amplitude of the incident angle oscillation and L P is the period of the incidence angle oscillation, as exemplified in FIG Fig. 5c is illustrated. For the source signals, white noise uncorrelated signals were used among each other, so that all 48 speakers can be operated with the same average power.

Obwohl Rauschsignale zur Ansteuerung von Lautsprechern möglicherweise in der Praxis kaum relevant sind, kann dieses Szenario eine klare und prägnante Bewertung des Einflusses von ϕa erlauben. In Anbetracht, dass beispielhaft lediglich vier unabhängige Signalquellen (NS = 4) und 48 Lautsprecher (NL = 48) angeordnet sind, bzw. verwendet werden, ist die Aufgabe und das Gleichungssystem der Systemidentifikation massiv unterbestimmt, so dass ein hoher normierter Systemabstand (NMA) erwartet werden kann.Although noise signals used to drive loudspeakers may not be relevant in practice, this scenario may allow a clear and concise assessment of the influence of φ a . In view of the fact that, by way of example, only four independent signal sources (N S = 4) and 48 loudspeakers (N L = 48) are arranged or used, the task and the system of equations of the system identification are massively underdetermined, so that a high normalized system distance ( NMA) can be expected.

Der Prototyp kann Ergebnisse der NMA erzielen, die den Stand der Technik übertreffen können und kann so zu einer besseren akustischen Wiedergabe von WFS oder HOA führen.The prototype can achieve results of the NMA that can surpass the state of the art and can thus lead to a better acoustic reproduction of WFS or HOA.

In nachfolgender Fig. 5 werden die Ergebnisse des Experiments graphisch dargestellt.In the following Fig. 5 The results of the experiment are shown graphically.

Fig. 5a zeigt die ERLE für die vier Quellen des Prototypen. Dabei zeigt Plot 1: ϕa = π/48, Plot 2: ϕa = 4π/48, Plot 3: ϕa = 8π/48 und Plot 4: ϕa = 0. Für Plot 4 und mithin für ϕa = 0 kann die ERLE bis zu ca. 58 dB erreicht werden. Fig. 5a shows the ERLE for the four sources of the prototype. Plot 1 shows: φ a = π / 48, plot 2: φ a = 4π / 48, plot 3: φ a = 8π / 48 and plot 4: φ a = 0. For plot 4 and therefore for φ a = 0, the ERLE can be achieved up to about 58 dB.

Fig. 5b zeigt den erreichten normierten Systemabstand mit den identischen Werten für ϕa in den Plots 1 bis 4. Der Systemabstand kann Werte von bis zu ca. -16 dB erreichen, was gegenüber Werten von -6 dB, die in [SHK13] erreicht werden, zu einer deutlichen Verbesserung der Systembeschreibung des LEMS führen kann. Fig. 5b shows the achieved normalized system spacing with the identical values for φ a in plots 1 to 4. The system spacing can reach values of up to about -16 dB, which compares to values of -6 dB achieved in [SHK13] a significant improvement in the system description of the LEMS.

Fig. 5c zeigt einen Plot an welchem an der Abszisse die Zeit und an der Ordinate die Werte der Amplitudenoszillation ϕa angegeben sind, so dass die Periodendauer LP ablesbar ist. Fig. 5c shows a plot at which the time on the abscissa and the values of the amplitude oscillation φ a are indicated on the ordinate, so that the period L P can be read.

Die Verbesserung gegenüber [SHK13] von bis zu 10 dB bezüglich des normierten Systemabstandes kann zumindest teilweise dadurch erklärt werden, dass der Ansatz, wie er in [SHK13] vorgeschlagen ist, mit räumlich bandbegrenzten Lautsprechersignalen arbeitet. Die räumliche Bandbreite einer natürlichen akustischen Szene ist im Allgemeinen zu groß, als dass die Szene von den (in begrenztem Umfang) bereitgestellten Lautsprechersignalen und Lautsprechern perfekt, d. h. ohne Abweichungen, wiedergegeben werden kann. Durch eine künstliche, d. h. gesteuerte, Bandbegrenzung, wie etwa bei HOA, kann eine räumlich bandbegrenzte Szene erhalten werden. In alternativen Verfahren, wie etwa bei WFS, kann ein Auftreten von Aliasing-Effekten in Kauf genommen werden, um eine bandbegrenzte Szene zu erhalten. Vorrichtungen, wie sie in den Fig. 1 und 2 vorgeschlagen sind, können mit einer räumlich nicht oder kaum bandbegrenzten virtuellen Wiedergabeszene arbeiten. In [SHK13] werden Aliasing-Artefakte der WFS, die bereits in den Lautsprechersignalen erzeugt oder eingefangen sind, schlicht mit der reproduzierten Wiedergabeszene rotiert, so dass Aliasing-Effekte zwischen den virtuellen Quellenobjekten bestehen bleiben können. In den Fig. 5 und 6 können die Anteile der individuellen WFS Aliasing-Therme in den Lautsprechersignalen mit einer Rotation der virtuellen Wiedergabeszene durch eine individuelle Modifikation der Metainformationen einzelner Quellenobjekte variieren. Dies kann zu einer stärkeren Dekorrelation führen. Die Fig. 5a-c zeigen, dass die Systemidentifikation mit einer größeren Rotationsamplitude ϕa eines virtuellen Quellenobjektes der akustischen Szene verbessert werden kann, wie es in Plot 3 der Fig. 5b gezeigt ist, wobei eine Reduktion des NMA möglicherweise auf Kosten einer reduzierten Echounterdrückung erzielt werden kann, wie es die Plots 1-3 in Fig. 5a gegenüber dem Plot 4 (ohne Rotationsamplitude) zeigen. Jedoch verbessert sich die Echounterdrückung für dekorrelierte Lautsprechersignale (ϕa > 0) über die Zeit, wohingegen die Systemidentifikation für unveränderte Lautsprechersignale (ϕa = 0) dies nicht tut.The improvement over [SHK13] of up to 10 dB in terms of normalized system spacing can be explained, at least in part, by the approach proposed in [SHK13] using spatially bandlimited loudspeaker signals. The spatial bandwidth of a natural acoustic scene is generally too large for the scene to be reproduced perfectly by the (to a limited extent) provided loudspeaker signals and loudspeakers, ie without deviations. Artificial, ie controlled, band limitation, such as in HOA, allows a spatially band limited scene to be obtained. In alternative methods, such as WFS, an occurrence of aliasing effects can be tolerated to obtain a band-limited scene. Devices like those in the Fig. 1 and 2 are proposed, can work with a spatially unstable or hardly bandlimited virtual playback scene. In [SHK13], WFS aliasing artifacts already created or captured in the speaker signals are simply rotated with the reproduced playback scene so that aliasing effects can persist between the virtual source objects. In the Fig. 5 and 6 For example, the portions of the individual WFS aliasing spawn in the loudspeaker signals may vary with a rotation of the virtual playback scene by an individual modification of the metadata of individual source objects. This can lead to a stronger decorrelation. The Fig. 5a-c show that the system identification can be improved with a larger rotation amplitude φ a of a virtual source object of the acoustic scene, as shown in Plot 3 of the Fig. 5b A reduction of the NMA may possibly be achieved at the expense of reduced echo cancellation, as is plots 1-3 in FIG Fig. 5a opposite plot 4 (without rotation amplitude). However, the echo cancellation for decorrelated loudspeaker signals (φ a > 0) improves over time, whereas the system identification for unchanged loudspeaker signals (φ a = 0) does not do this.

Nachfolgend werden in den Fig. 6a-c verschiedene Arten der Systemidentifikation beschrieben. In Fig. 6a wird ein Signalmodell einer Systemidentifikation eines Multiple Input Multiple Output (MIMO) Systems beschrieben, bei der das Mehrdeutigkeitsproblem auftreten kann. In Fig. 6b wird ein Signalmodell einer MIMO Systemidentifikation mit einer Dekorrelation der Lautsprechersignale gemäß dem Stand der Technik beschrieben. Fig. 6c zeigt ein Signalmodell einer MIMO Systemidentifikation mit einer Dekorrelation von Lautsprechersignalen, wie sie beispielsweise mit einer Vorrichtung der Fig. 1 oder der Fig. 2 erzielbar ist.Below are in the Fig. 6a-c various types of system identification described. In Fig. 6a describes a signal model of a system identification of a multiple input multiple output (MIMO) system, where the ambiguity problem can occur. In Fig. 6b For example, a signal model of a MIMO system identification with a decorrelation of the loudspeaker signals according to the prior art will be described. Fig. 6c shows a signal model of a MIMO system identification with a decorrelation of loudspeaker signals, such as with a device of the Fig. 1 or the Fig. 2 is achievable.

In Fig. 6a wird das LEMS H durch H est(n) bestimmt bzw. geschätzt, wobei H est(n) durch Beobachtung der Lautsprechersignale x(k) und der Mikrophonsignale d(k) bestimmt bzw. geschätzt wird. H est(n) kann bspw. eine mögliche Lösung eines unterbestimmten Gleichungssystems sein. Die Vektoren, die die Lautsprechersignale erfassen, sind definiert durch x k = x 1 k , x 2 k , , x N L k T ,

Figure imgb0004
x l k = x l k L X + 1 , x l k L X + 2 , , x l k T ;
Figure imgb0005
wobei Lx die Länge der individuellen Komponentenvektoren x l(k) beschreibt, welche die Abtastungen x l(k) des Lautsprechersignals l zum Zeitpunkt k erfassen. Gleichermaßen können die Vektoren, die die erfassten Mikrophonsignale LD beschreiben, als Aufnahmen zu bestimmten Zeitpunkten für jeden Kanal und definiert sein als d k = d 1 k , d 2 k , , d N M k T .
Figure imgb0006
d m k = d m k L D + 1 , d m k L D + 2 , ... , d m k T .
Figure imgb0007
In Fig. 6a For example, the LEMS H is estimated by H est (n), where H est (n) is estimated by observing the loudspeaker signals x (k) and the microphone signals d (k). H est (n) may, for example, be a possible solution of an underdetermined system of equations. The vectors that capture the loudspeaker signals are defined by x k = x 1 k . x 2 k . ... . x N L k T .
Figure imgb0004
x l k = x l k - L X + 1 . x l k - L X + 2 . ... . x l k T ;
Figure imgb0005
where L x describes the length of the individual component vectors x 1 (k) which detect the samples x 1 (k) of the loudspeaker signal 1 at time k. Likewise, the vectors describing the acquired microphone signals L D may be defined as recordings at particular times for each channel and d k = d 1 k . d 2 k . ... . d N M k T ,
Figure imgb0006
d m k = d m k - L D + 1 . d m k - L D + 2 . ... . d m k T ,
Figure imgb0007

Das LEMS kann dann durch eine lineare MIMO Filterung beschrieben werden, die ausgedrückt werden kann als: d k = Hx k ,

Figure imgb0008
wobei die individuellen Aufnahmen der Mikrophonsignale durch d m k = l = 1 N L κ = 0 L H 1 x l k κ h m , l κ .
Figure imgb0009
erhalten werden können. Die Impulsantworten hm,l(k) des LEMS mit der Länge LH können das zu identifizierende LEMS beschreiben. Um die individuellen Aufnahmen der Mikrophonsignale durch die lineare MIMO Filterung auszudrücken, kann die Beziehung von LX und LD mit LX = LD + LH - 1 definiert werden. Die Lautsprechersignale x(k) können durch ein Wiedergabesystem basierend auf WFS, Higher-Order Ambisonics oder einem ähnlichen Verfahren erhalten werden. Das Wiedergabesystem kann eine bspw. lineare MIMO Filterung einer Anzahl von NS virtuellen Quellensignalen s̊ (k). Die virtuellen Quellensignale s̊ (k) können durch den Vektor
Figure imgb0010
Figure imgb0011
The LEMS can then be described by a linear MIMO filtering, which can be expressed as: d k = Hx k .
Figure imgb0008
wherein the individual recordings of the microphone signals by d m k = Σ l = 1 N L Σ κ = 0 L H - 1 x l k - κ H m . l κ ,
Figure imgb0009
can be obtained. The impulse responses h m, l (k) of the LEMS of length L H can describe the LEMS to be identified. To express the individual recordings of the microphone signals by linear MIMO filtering, the relationship of L X and L D with L X = L D + L H - 1 can be defined. The speaker signals x (k) can be obtained by a reproducing system based on WFS, higher order ambisonics or the like. The rendering system may include, for example, linear MIMO filtering of a number of N S virtual source signals s̊ (k). The virtual source signals s̊ (k) can be passed through the vector
Figure imgb0010
Figure imgb0011

Dargestellt werden, wobei LS bspw. eine Länge des Signalsegments der individuellen Komponente s̊q(k) ist und s̊q(k) das Ergebnis einer Abtastung der Quelle q zum Zeitpunkt k ist. Eine Matrix G kann das Rendering System darstellen und so strukturiert sein, dass

Figure imgb0012
die Faltung der Quellensignale s̊q(k) mit der Impulsantwort gl,q(k) beschreibt. Dies kann genutzt werden, um die Lautsprechersignale xl(k) aus den Quellensignalen s̊ q(k) gemäß der Berechnungsvorschrift
Figure imgb0013
zu beschreiben. Die Impulsantworten gl,q(k) haben bspw. eine Länge von LR Abtastungen und repräsentieren R(l,q,ω) im diskreten Zeitbereich.For example, where L s is, for example, a length of the signal segment of the individual component s̊ q (k) and s̊ q (k) is the result of sampling the source q at time k. A matrix G can represent the rendering system and be structured such that
Figure imgb0012
describes the convolution of the source signals s̊ q (k) with the impulse response g l, q (k). This can be used to derive the loudspeaker signals x l (k) from the source signals s q (k) according to the calculation rule
Figure imgb0013
to describe. The impulse responses g l, q (k) have, for example, a length of L R samples and represent R (1, q, ω) in the discrete time domain.

Das LEMS kann derart identifiziert werden, dass ein Fehler e(k) der Systemschätzung H est(n) durch e k = d k H est n x k

Figure imgb0014
bestimmbar sein kann und bezüglich einer entsprechenden Norm, wie etwa der Euklidischen oder einer geometrischen Norm, minimiert wird. Wird die Euklidische Norm ausgewählt, können die bekannten Wiener-Hopf Gleichungen resultieren. Werden lediglich Finite Impulse Response (FIR)-Filter für die Systemantworten betrachtet, können die Wiener-Hopf Gleichungen in Matrixnotation in der Form R xx H est H n = R xd
Figure imgb0015
mit R xd = ε x k d H k
Figure imgb0016
geschrieben bzw. dargestellt werden, wobei R xd bspw. die Korrelationsmatrix der Lautsprecher- und Mikrophonsignale ist. H est(n) kann nur eindeutig sein, wenn die Korrelationsmatrix R xx der Lautsprechersignale vollen Rang hat. Für R xx kann die folgende Relation erhalten werden: R xx = ε x k x H k = GR ss G H ,
Figure imgb0017
wobei R ss bspw. die Korrelationsmatrix der Quellensignale gemäß
Figure imgb0018
ist. Daraus kann LS = LX + LR - 1 folgen, so dass R ss die Dimension NS(LX + LR - 1) x NS(LX + LR - 1) hat, während R xx die Dimension NLLX x NLLX hat. Eine notwendige Bedingung dafür, dass R xx vollen Rang hat, ist N L L X N S L X + L R 1 ,
Figure imgb0019
wobei die virtuellen Quellen zumindest unkorrelierte Signale tragen und an verschiedenen Positionen positioniert sind.The LEMS can be identified such that an error e (k) of the system estimate H est (n) e k = d k - H est n x k
Figure imgb0014
can be determinable and minimized with respect to a corresponding standard, such as the Euclidean or a geometric standard. If the Euclidean norm is chosen, the well-known Wiener-Hopf equations can result. If only finite impulse response (FIR) filters are considered for the system responses, the Wiener-Hopf equations can be expressed in matrix notation in the form R xx H est H n = R xd
Figure imgb0015
With R xd = ε x k d H k
Figure imgb0016
For example, R xd, for example, is the correlation matrix of the speaker and microphone signals. H est (n) can only be unique if the correlation matrix R xx of the loudspeaker signals has full rank. For R xx the following relation can be obtained: R xx = ε x k x H k = GR ss G H .
Figure imgb0017
where R ss, for example, the correlation matrix of the source signals according to
Figure imgb0018
is. From this L S = L X + L R - 1 can follow, so that R ss has the dimension N S (L X + L R - 1) x N S (L X + L R - 1), while R xx has the dimension N x N X L L L L X. A necessary condition for R xx to have full rank is N L L X N S L X + L R - 1 .
Figure imgb0019
wherein the virtual sources carry at least uncorrelated signals and are positioned at different positions.

Wenn die Anzahl der Lautsprecher NL die Anzahl an virtuellen Quellen NS überschreitet, kann das Mehrdeutigkeitsproblem auftreten. In der nachfolgenden Betrachtung wird der Einfluss der Impulsantwortlängen LX und LR vernachlässigt.If the number of speakers N L exceeds the number of virtual sources N S , the ambiguity problem may arise. In the following consideration, the influence of the impulse response lengths L X and L R is neglected.

Das Mehrdeutigkeitsproblem kann zumindest teilweise aus der starken gegenseitigen Kreuzkorrelation der Lautsprechersignale resultieren, die unter anderem in der geringeren Anzahl der virtuellen Quellen begründet sein kann. Ein Auftreten des Mehrdeutigkeitsproblems kann wahrscheinlicher sein, je mehr Kanäle für das Wiedergabesystem genutzt werden, unter anderem wenn die Anzahl der virtuellen Quellenobjekte kleiner ist als die Anzahl der in dem LEMS verwendeten Lautsprecher. Behelfslösungen nach dem Stand der Technik zielen auf eine Änderung der Lautsprechersignale, so dass der Rang von R xx erhöht ist oder die Konditionszahl von R xx verbessert ist.The ambiguity problem can result, at least in part, from the strong mutual cross-correlation of the loudspeaker signals, which may be due, inter alia, to the smaller number of virtual sources. Occurrence of the ambiguity problem may be more likely the more channels are used for the rendering system, inter alia if the number of virtual source objects is less than the number of speakers used in the LEMS. Auxiliary solutions according to the prior art aim at a change of the loudspeaker signals, so that the rank of R xx is increased or the condition number of R xx is improved.

Fig. 6b zeigt ein Signalmodell eines Verfahrens zur Systemschätzung und zur Dekorrelation von Lautsprechersignalen. Korrelierte Lautsprechersignale x(k) können bspw. durch Dekorrelationsfilter und/oder rauschbasierte Ansätze in dekorrelierte Lautsprechersignale x'(k) überführt werden. Die beiden Ansätze können gemeinsam oder getrennt voneinander angewendet werden. Ein Block 44 (Decorr. filter) der Fig. 6b beschreibt eine Filterung der Lautsprechersignale x l(k), die für jeden Lautsprecher mit Index I differiert und nichtlinear sein kann, wie es bspw. in [MHB01, BMS98] beschrieben ist. Alternativ kann die Filterung linear, jedoch zeitvariant sein, wie es bspw. in [SHK13, Ali98, HBK07, WWJ12] vorgeschlagen ist. Die rauschbasierten Ansätze, wie sie in [SMH95, GT98, GE98] vorgeschlagen sind, können durch eine Addition von unkorreliertem Rauschen, angedeutet durch n(k) repräsentiert werden. Diese Ansätze haben gemeinsam, dass sie die virtuellen Quellensignale s(k) und das Rendering System G vernachlässigen bzw. unverändert lassen. Sie bearbeiten lediglich die Lautsprechersignale x(k). Fig. 6b shows a signal model of a method for system estimation and decorrelation of loudspeaker signals. Correlated loudspeaker signals x (k) can be converted, for example, by decorrelation filters and / or noise-based approaches into decorrelated loudspeaker signals x '(k). The two approaches can be used together or separately. A block 44 (Decorr Fig. 6b describes a filtering of the loudspeaker signals x l (k), which differs for each loudspeaker with index I and may be non-linear, as described, for example, in [MHB01, BMS98]. Alternatively, the filtering may be linear, but time varying, as suggested, for example, in [SHK13, Ali98, HBK07, WWJ12]. The noise-based approaches proposed in [SMH95, GT98, GE98] can be represented by an addition of uncorrelated noise, indicated by n (k). These approaches have in common that they neglect or leave unchanged the virtual source signals s (k) and the rendering system G. They only process the loudspeaker signals x (k).

Fig. 6c zeigt ein Signalmodell einer MIMO Systemidentifikation mit einer Lautsprecherdekorrelation, wie sie in den Fig. 1 und 2 beschrieben ist. Eine notwendige Voraussetzung für eine eindeutige Systemidentifikation ist mit N L L X N S L X + L R 1 ,

Figure imgb0020
gegeben. Diese Bedingung gilt unabhängig von den tatsächlichen räumlichen Eigenschaften, wie physikalische Abmessungen oder Abstrahlcharakteristik der virtuellen Quellenobjekte. Die jeweiligen virtuellen Quellenobjekte sind dabei an von einander verschieden Positionen in dem jeweiligen Wiedergaberaum positioniert. Jedoch können verschiedene räumliche Eigenschaften der virtuellen Quellenobjekte verschiedene Impulsantworten benötigen, die in G darstellbar sind. Gemäß R xx = ε x k x H k = GR ss G H ,
Figure imgb0021
bestimmt G die Korrelationseigenschaften der Lautsprechersignale x(k), beschrieben durch R xx. Dadurch können wegen der Mehrdeutigkeit verschiedene Mengen von Lösungen für Hest(n) gemäß R xx H est H n = R xd
Figure imgb0022
existieren, abhängig von den räumlichen Eigenschaften der virtuellen Quellenobjekte. Da alle Lösungen aus dieser Menge von Lösungen die perfekte Identifikation H est(n) = H beinhalten, unabhängig von R xx, kann ein variierendes R xx für eine Systemidentifikation, wie sie in [SHK13] beschrieben ist, vorteilhaft sein. Fig. 6c shows a signal model of a MIMO system identification with a loudspeaker decorrelation as shown in the Fig. 1 and 2 is described. A necessary condition for a clear system identification is with N L L X N S L X + L R - 1 .
Figure imgb0020
given. This condition applies regardless of the actual spatial properties, such as physical dimensions or radiation characteristics of the virtual source objects. The respective virtual source objects are positioned at positions different from one another in the respective reproduction space. However, different spatial properties of the virtual source objects may require different impulse responses that are representable in G. According to R xx = ε x k x H k = GR ss G H .
Figure imgb0021
G determines the correlation properties of the loudspeaker signals x (k) described by R xx . As a result, because of the ambiguity, different amounts of solutions for H est (n) according to R xx H est H n = R xd
Figure imgb0022
exist, depending on the spatial characteristics of the virtual source objects. Since all solutions from this set of solutions involve the perfect identification H est (n) = H , regardless of R xx , a varying R xx for a system identification as described in [SHK13] may be advantageous.

Eine Änderung der räumlichen Eigenschaften von virtuellen Quellenobjekten kann ausgenutzt werden, um die Systemidentifikation zu verbessern. Dies wird ermöglicht, indem ein zeitvariantes Rendering System, darstellbar durch G'(k), umgesetzt wird. Das zeitvariante Rendering System G'(k) umfasst den Modifizierer 18, wie er bspw. in Fig. 1 erläutert ist, um die Metainformationen der virtuellen Quellenobjekte und mithin die räumlichen Eigenschaften der virtuellen Quellenobjekte zu modifizieren. Das Rendering System der Renderer 22 stellen Lautsprechersignale basierend auf den vom Modifizierer 18 modifizierten Metainformationen bereit, um die Wellenfelder von verschiedenen virtuellen Quellenobjekten, wie beispielsweise Punktquellen, Dipolquellen, ebenen Quellen oder Quellen mit nierenförmiger Abstrahlcharakteristik wiederzugeben.A change in the spatial properties of virtual source objects can be exploited to improve system identification. This is made possible by implementing a time-varying rendering system, represented by G '(k). The time-variant rendering system G '(k) comprises the modifier 18, as it is, for example, in Fig. 1 is explained to modify the metadata of the virtual source objects and thus the spatial properties of the virtual source objects. The Rendering systems of the renderers 22 provide loudspeaker signals based on the meta-information modified by the modifier 18 to reflect the wavefields of various virtual source objects, such as point sources, dipole sources, planar sources, or kidney-shaped radiation sources.

Im Unterschied zu den Beschreibungen bezüglich des Renderingsystems G in den Fig. 6a und 6b ist G'(k) der Fig. 6c von dem Zeitschritt k abhängig und kann für verschiedene Zeitschritte k variabel sein. Der Renderer 22 produziert die dekorrelierten Lautsprechersignale x'(k) direkt, so dass auf ein Hinzufügen von Rauschen oder einen Dekorrelationsfilter verzichtet werden kann. Die Matrix G'(k) kann für jeden Zeitschritt k gemäß dem gewählten Wiedergabeschema bestimmt werden, wobei die Zeitpunkte k eine zeitliche Differenz zueinander aufweisen.In contrast to the descriptions regarding the rendering system G in the Fig. 6a and 6b G '(k) is the Fig. 6c depends on the time step k and can be variable for different time steps k. The renderer 22 produces the decorrelated loudspeaker signals x '(k) directly, so that it is possible to dispense with the addition of noise or a decorrelation filter. The matrix G '(k) can be determined for each time step k in accordance with the selected display scheme, wherein the times k have a temporal difference from one another.

Obwohl manche Aspekte im Zusammenhang mit einer Vorrichtung beschrieben wurden, versteht es sich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens darstellen, sodass ein Block oder ein Bauelement einer Vorrichtung auch als ein entsprechender Verfahrensschritt oder als ein Merkmal eines Verfahrensschrittes zu verstehen ist. Analog dazu stellen Aspekte, die im Zusammenhang mit einem oder als ein Verfahrensschritt beschrieben wurden, auch eine Beschreibung eines entsprechenden Blocks oder Details oder Merkmals einer entsprechenden Vorrichtung dar.Although some aspects have been described in the context of a device, it will be understood that these aspects also constitute a description of the corresponding method, so that a block or a component of a device is also to be understood as a corresponding method step or as a feature of a method step. Similarly, aspects described in connection with or as a method step also represent a description of a corresponding block or detail or feature of a corresponding device.

Je nach bestimmten Implementierungsanforderungen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-ray Disc, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers, einer Festplatte oder eines anderen magnetischen oder optischen Speichers durchgeführt werden, auf dem elektronisch lesbare Steuersignale gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenwirken können oder zusammenwirken, dass das jeweilige Verfahren durchgeführt wird. Deshalb kann das digitale Speichermedium computerlesbar sein. Manche Ausführungsbeispiele gemäß der Erfindung umfassen also einen Datenträger, der elektronisch lesbare Steuersignale aufweist, die in der Lage sind, mit einem programmierbaren Computersystem derart zusammenzuwirken, dass eines der hierin beschriebenen Verfahren durchgeführt wird.Depending on particular implementation requirements, embodiments of the invention may be implemented in hardware or in software. The implementation may be performed using a digital storage medium, such as a floppy disk, a DVD, a Blu-ray Disc, a CD, a ROM, a PROM, an EPROM, an EEPROM or FLASH memory, a hard disk, or other magnetic disk or optical memory are stored on the electronically readable control signals that can cooperate with a programmable computer system or cooperate such that the respective method is performed. Therefore, the digital storage medium can be computer readable. Thus, some embodiments according to the invention include a data carrier having electronically readable control signals capable of interacting with a programmable computer system such that one of the methods described herein is performed.

Allgemein können Ausführungsbeispiele der vorliegenden Erfindung als Computerprogrammprodukt mit einem Programmcode implementiert sein, wobei der Programmcode dahin gehend wirksam ist, eines der Verfahren durchzuführen, wenn das Computerprogrammprodukt auf einem Computer abläuft. Der Programmcode kann beispielsweise auch auf einem maschinenlesbaren Träger gespeichert sein.In general, embodiments of the present invention may be implemented as a computer program product having a program code, wherein the program code is operable to perform one of the methods when the computer program product runs on a computer. The program code can also be stored, for example, on a machine-readable carrier.

Andere Beispiele umfassen das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren, wobei das Computerprogramm auf einem maschinenlesbaren Träger gespeichert ist.Other examples include the computer program for performing any of the methods described herein, wherein the computer program is stored on a machine-readable medium.

Mit anderen Worten ist ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens somit ein Computerprogramm, das einen Programmcode zum Durchführen eines der hierin beschriebenen Verfahren aufweist, wenn das Computerprogramm auf einem Computer abläuft. Ein weiteres Beispiel der erfindungsgemäßen Verfahren ist somit ein Datenträger (oder ein digitales Speichermedium oder ein computerlesbares Medium), auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren aufgezeichnet ist.In other words, an embodiment of the method according to the invention is thus a computer program which has a program code for performing one of the methods described herein when the computer program runs on a computer. Another example of the inventive methods is thus a data carrier (or a digital storage medium or a computer-readable medium) on which the computer program is recorded for carrying out one of the methods described herein.

Ein weiteres Ausführungsbeispiel umfasst eine Verarbeitungseinrichtung, beispielsweise einen Computer oder ein programmierbares Logikbauelement, die dahin gehend konfiguriert oder angepasst ist, eines der hierin beschriebenen Verfahren durchzuführen.Another embodiment includes a processing device, such as a computer or a programmable logic device, that is configured or adapted to perform one of the methods described herein.

Ein weiteres Ausführungsbeispiel umfasst einen Computer, auf dem das Computerprogramm zum Durchführen eines der hierin beschriebenen Verfahren installiert ist.Another embodiment includes a computer on which the computer program is installed to perform one of the methods described herein.

Bei manchen Ausführungsbeispielen kann ein programmierbares Logikbauelement (beispielsweise ein feldprogrammierbares Gatterarray, ein FPGA) dazu verwendet werden, manche oder alle Funktionalitäten der hierin beschriebenen Verfahren durchzuführen. Bei manchen Ausführungsbeispielen kann ein feldprogrammierbares Gatterarray mit einem Mikroprozessor zusammenwirken, um eines der hierin beschriebenen Verfahren durchzuführen. Allgemein werden die Verfahren bei einigen Ausführungsbeispielen seitens einer beliebigen Hardwarevorrichtung durchgeführt. Diese kann eine universell einsetzbare Hardware wie ein Computerprozessor (CPU) sein oder für das Verfahren spezifische Hardware, wie beispielsweise ein ASIC.In some embodiments, a programmable logic device (eg, a field programmable gate array, an FPGA) may be used to perform some or all of the functionality of the methods described herein. In some embodiments, a field programmable gate array may include a Microprocessor cooperate to perform any of the methods described herein. In general, in some embodiments, the methods are performed by any hardware device. This may be a universal hardware such as a computer processor (CPU) or hardware specific to the process, such as an ASIC.

Die oben beschriebenen Ausführungsbeispiele stellen lediglich eine Veranschaulichung der Prinzipien der vorliegenden Erfindung dar. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten anderen Fachleuten einleuchten werden. Deshalb ist beabsichtigt, dass die Erfindung lediglich durch den Schutzumfang der nachstehenden Patentansprüche und nicht durch die spezifischen Einzelheiten, die anhand der Beschreibung und der Erläuterung der Ausführungsbeispiele hierin präsentiert wurden, beschränkt sei.The embodiments described above are merely illustrative of the principles of the present invention. It will be understood that modifications and variations of the arrangements and details described herein will be apparent to others of ordinary skill in the art. Therefore, it is intended that the invention be limited only by the scope of the appended claims and not by the specific details presented in the description and explanation of the embodiments herein.

Literaturliterature

  • [Ali98] ALI, M.: Stereophonie Acoustic Echo Cancellation System Using Time Varying All-Pass filtering for signal decorrelation. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) Bd. 6. Seattle, WA, May 1998, S. 3689 - 3692 [Ali98] ALI, M .: Stereophonic Acoustic Echo Cancellation System Using Time Varying All-pass filtering for signal decorrelation. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) Vol. 6. Seattle, WA, May 1998, pp. 3689-3692
  • [BBK03] BUCHNER, H.; BENESTY, J.; KELLERMANN, W.: Multichannel Frequency Domain Adaptive Algorithms with Application to Acoustic Echo Cancellation. In: BENESTY, J. (Hrsg.); HUANG, Y. (Hrsg.): Adaptive Signal Processing: Application to Real-World Problems. Berlin : Springer, 2003 [BBK03] BUCHNER, H .; BENESTY, J .; KELLERMANN, W .: Multichannel Frequency Domain Adaptive Algorithms with Application to Acoustic Echo Cancellation. In: BENESTY, J. (ed.); HUANG, Y. (ed.): Adaptive Signal Processing: Application to Real-World Problems. Berlin: Springer, 2003
  • [BDV93] BERKHOUT, A.J.; DE VRIES, D.; VOGEL, P.: Acoustic control by wave field synthecsis. In: J. Acoust. Soc. Am. 93 (1993), Mai, S. 2764 - 2778 [BDV93] BERKHOUT, AJ; DE VRIES, D .; VOGEL, P .: Acoustic control by wave field synthecsis. In: J. Acoust. Soc. At the. 93 (1993), May, pp. 2764-2778
  • [BLA97] Blauert, Jens: Spatial Hearing: the Psychophysics of Human Sound Localization. MIT press, 1997 [BLA97] Blauert, Jens: Spatial Hearing: The Psychophysics of Human Sound Localization. MIT press, 1997
  • [BMS98] BENESTY, J.; MORGAN, D.R.; SoNDHI, M.M.: A better understanding and an improved solution to the specific problems of stereophonic acoustic echo cancellation. In: IEEE Trans. Speech Audio Process. 6 (1998), March, Nr. 2, S. 156 - 165 [BMS98] BENESTY, J .; MORGAN, DR; SoNDHI, MM: A better understanding and an improved solution to the specific problems of stereophonic acoustic echo cancellation. In: IEEE Trans. Speech Audio Process. 6 (1998), March, No. 2, pp. 156-165
  • [Dan03] DANIEL, J.: Spatial sound encoding including near field effect: Introducing distance coding filters and a variable, new ambisonic format. In: 23rd International Conference of the Audio Eng. Soc" 2003 [Dan03] DANIEL, J .: Spatial sound encoding including near field effect: Introducing distance coding filters and a variable, new ambisonic format. In: 23rd International Conference of the Audio Eng. Soc. 2003
  • [GE98] GÄNSLER, T.; ENEROTH, P.: Influence of audio coding on stereophonic acoustic echo cancellation. In: IEEE International Conference an Acoustics, Speech, and Signal Processing (ICASSP) Bd. 6. Seattle, WA, May 1998, S. 3649 - 3652 [GE98] GÄNSLER, T .; ENEROTH, P .: Influence of audio coding on stereophonic acoustic echo cancellation. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) Vol. 6. Seattle, WA, May 1998, pp. 3649-3652
  • [GT98] GILLOIRE, A.; TURBIN, V.: Using auditory properties to improve the behaviour of stereophonie acoustic echo cancellers. In: IEEE International Conference an Acoustics, Speech, and Signal Processing (ICASSP) Bd. 6. Seattle, WA, May 1998, S. 3681 - 3684 [GT98] GILLOIRE, A .; TURBIN, V .: Using auditory properties to improve the behavior of stereophonic acoustic echo cancellers. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) Vol. 6. Seattle, WA, May 1998, pp. 3681-3684
  • [HBK07] HERRE, J.; BUCHNER, H.; KELLERMANN, W.: Acoustic Echo Cancellation for Surround Sound using Perceptually Motivated Convergence Enhancement. In: IEEE International Conference an Acoustics, Speech, and Signal Processing (ICASSP) Bd. 1. Honolulu, Hawaii, April 2007, S. I-17 - I-20 [HBK07] HERRE, J .; BUCHNER, H .; KELLERMANN, W .: Acoustic Echo Cancellation for Surround Sound Using Perceptually Motivated Convergence Enhancement. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) Vol. 1. Honolulu, Hawaii, April 2007, pp. I-17 - I-20
  • [MHBOI] MORGAN, D.R.; HALL, J.L.; BENESTY, J.: Investigation of several types of nonlinearities for use in stereo acoustic echo cancellation. In: IEEE Trans. Speech Audio Process. 9 (2001), September, Nr. 6, S. 686 - 696 [MHBOI] MORGAN, DR; HALL, JL; BENESTY, J .: Investigation of several types of nonlinearities for use in stereo acoustic echo cancellation. In: IEEE Trans. Speech Audio Process. 9 (2001), September, No. 6, pp. 686-696
  • [SHK13] SCHNEIDER, M.; HUEMMER, C.; KELLERMANN, W.: Wave-Domain Loudspeaker Signal Decorrelation for System Identification in Multichannel Audio Reproduction Scenarios. In: IEEE International Conference an Acoustics, Speech, and Signal Processing (ICASSP). Vancouver, Canada, May 2013 [SHK13] SCHNEIDER, M .; HUEMMER, C .; KELLERMANN, W .: Wave-Domain Loudspeaker Signal Decorrelation for System Identification in Multichannel Audio Reproduction Scenarios. In: IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP). Vancouver, Canada, May 2013
  • [SMH95] SoNDHI, M.M.; MORGAN, D.R.; HALL, J.L.: Stereophonie acoustic echo cancellation - An overview of the fundamental problem. In: IEEE Signal Process. Lett. 2 (1995), August, Nr. 8, S. 148 -151 [SMH95] SoNDHI, MM; MORGAN, DR; HALL, JL: Stereophonie acoustic echo cancellation - An overview of the fundamental problem. In: IEEE Signal Process. Lett. 2 (1995), August, No. 8, pp. 148-151
  • [WWJ12] WUNG, J. ; WADA, T. S.; JUANG, B. H.: Inter-channel decorrelation by sub-band resampling in frequency domain. In: International Workshop on Acoustic Signal Enhancement {IWAENC). Kyoto, Japan, March 2012, S. 29-32 [WWJ12] WUNG, J.; WADA, TS; JUANG, BH: Inter-channel decorrelation by sub-band resampling in frequency domain. In: International Workshop on Acoustic Signal Enhancement {IWAENC). Kyoto, Japan, March 2012, pp. 29-32
  • [Bla97] Blauert, Jens: Spatial Hearing: the Psychophysics of Human Sound Localization. MIT press, 1997 ][Bla97] Blauert, Jens: Spatial Hearing: The Psychophysics of Human Sound Localization. MIT press, 1997 ]
Verwendete Abkürzungenused abbreviations

AECAEC
Akustische Echounterdrückung (acoustic echo cancellation)Acoustic echo cancellation
FIRFIR
finite impulse responsefinite impulse response
HOAHOA
Higher-Order AmbisonicsHigher-order Ambisonics
ILDILD
interauraler Pegelunterschied (interaural level difference)interaural level difference
ITDITD
interauraler Zeitunterschied (interaural time difference)interaural time difference
LEMSLEMS
Lautsprecher-Einhausungs-Mikrophon-System (Ioudspeaker-enclosure-microphone system)Speaker Housing Microphone System (Ioudspeaker-enclosure-microphone system)
LRELRE
Hörraumentzerrung (listening room equalization)Listening room equalization
MIMOMIMO
multi-input multi-outputmulti-input multi-output
WFSWFS
Wellenfeldsynthese (wave field synthesis)Wave field synthesis (wave field synthesis)

Claims (8)

  1. A device (10, 30) for generating a multitude of loudspeaker signals (x'(k)) based on at least one virtual source object (12a-c) which comprises a source signal and meta information determining a position (P1; P2) or type of the at least one virtual source object (12a-c), comprising:
    a modifier (18) configured to time-varyingly modify the meta information; and
    a renderer (22) configured to transfer the at least one virtual source object (12a-c) and the modified meta information in which the type or position (P1, P2) of the at least one virtual source object (12a-c) is modified time-varyingly, to form a multitude of loudspeaker signals (x'(k)),
    wherein the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) such that a virtual position (P1, P2) of the at least one virtual source object (12a-c) is modified from one time instant to a later time instant and thereby a distance between the virtual position (P1, P2) of the at least one virtual source object (12a-c) relative to a position in a playback space (16) is altered by at most 25 %, or
    wherein the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), an interaural level difference is increased by at most 26 % or decreased by at most 21 %, or
    wherein the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), a monaural level difference is increased by at most 26 % or decreased by at most 21 %, or
    wherein the modifier (18) is configured to modify the meta information of the at least one virtual source objet (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), an interaural time difference is modified by at most 30 µs, or
    wherein the at least one virtual source object (12a-c) is arranged in the front (34a, 34b) relative to a listener (17) in a playback space (16) and the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that a direction of the at least one virtual source object (12a-c) relative to the listener (17) is altered by less than 3° (α1), or
    wherein the at least one virtual source object (12a-c) is arranged in a lateral direction (36a, 36b) relative to a listener (17) in a playback space (16) and the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that a direction of the at least one virtual source object (12a-c) relative to the listener (17) is altered by less than 10° (α2), or
    wherein the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) at a time interval of at least 10 seconds, or
    wherein the modifier (18) is configured to produce an image (12'a) of the at least one virtual source object (12a), wherein the image at least partly comprises the meta information of the at least one virtual source object (12a); to time-varyingly modify the meta information such that the at least one virtual source object (12a) and the image (12'a) comprise mutually different meta information, and to position the image (12'a) at a distance (41) of at most 10 meters to the at least one virtual source object (12a), or
    wherein the renderer (22) is additionally configured to add to the loudspeaker signals (x'(k)) an attenuation or a delay such that a correlation of the loudspeaker signals (x'(k)) is reduced.
  2. The device (10, 30) in accordance with claim 1, further comprising:
    a system calculator (28) configured to estimate, based on a plurality of microphone signals (d(k)) and the multitude of loudspeaker signals (x'(k)), a transmission characteristic (H est(n)) of a playback space (16) where a plurality of loudspeakers which the multitude of loudspeaker signals (x'(k)) is determined for and a plurality of microphones which the plurality of microphone signals (d(k)) originate from may be applied;
    wherein the renderer (22) is configured to calculate the multitude of loudspeaker signals (x'(k)) based on the estimated transmission characteristic (H est(n)) of the playback space (16).
  3. The device (10, 30) in accordance with claim 1 or 2, wherein the renderer (22) is configured to calculate the multitude of loudspeaker signals (x'(k)) in accordance with the rule of a wave-field synthesis algorithm or a high-order ambisonic algorithm, or wherein the renderer (22) is configured to calculate at least 10 loudspeaker signals (x'(k)).
  4. The device (10, 30) in accordance with any of the preceding claims, wherein the modifier (18) is configured to modify at least two virtual source objects (12a-c) such that the meta information of a first virtual source object (12a-c) are modified differently as regards position or type of the virtual source object (12a-c) compared to the meta information of a second virtual source object (12a-c); and
    wherein the renderer (22) is configured to calculate the multitude of loudspeaker signals (x'(k)) based on the first modified meta information and the second modified meta information.
  5. The device (10, 30) in accordance with any of the preceding claims, wherein the modifier (18) is additionally configured to produce an image (12'a) of the at least one virtual source object (12a), wherein the image at least partly comprises the meta information of the at least one virtual source object (12a); and wherein the modifier is configured to time-varyingly modify the meta information such that the at least one virtual source object (12a) and the image (12'a) comprise mutually different meta information.
  6. The device (10, 30) in accordance with any of the preceding claims, wherein the modifier (18) is configured to modify the meta information of the at least one virtual source object (12a-c) of a playback scene reproduced as regards the position or type of the at least one virtual source object (12a-c) partly such that the modification of the playback scene reproduced is not noticeable by a listener (17) in a playback space (16) or not perceived as being disturbing.
  7. A method for generating a multitude of loudspeaker signals (x'(k)) based on at least one virtual source object (12a-c) which comprises a source signal and meta information determining the position or type of the at least one virtual source object (12a-c), comprising:
    time-varyingly modifying the meta information; and
    transferring the at least one virtual source object (12a-c) and the modified information in which the type or position of the at least one virtual source object (12a-c) is modified time-varyingly, to form a multitude of loudspeaker signals (x'(k))
    wherein modifying modifies the meta information of the at least one virtual source object (12a-c) such that a virtual position (P1, P2) of the at least one virtual source object (12a-c) is modified from one time instant to a later time instant and thereby a distance between the virtual position (P1, P2) of the at least one virtual source object (12a-c) relative to a position in a playback space (16) is altered by at most 25 %, or
    wherein modifying modifies the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), an interaural level difference is increased by at most 26 % or decreased by at most 21 %, or
    wherein modifying modifies the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), a monaural level difference is increased by at most 26 % or decreased by at most 21 %, or
    wherein modifying modifies the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that, relative to a position (P1, P2) in a playback space (16), an interaural time difference is modified by at most 30 µs, or
    wherein the at least one virtual source object (12a-c) is arranged in the front (34a, 34b) relative to a listener (17) in a playback space (16) and modifying modifies the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that a direction of the at least one virtual source object (12a-c) relative to the listener (17) is altered by less than 3° (α1), or
    wherein the at least one virtual source object (12a-c) is arranged in a lateral direction (36a, 36b) relative to a listener (17) in a playback space (16) and modifying modifies the meta information of the at least one virtual source object (12a-c) from one time instant to a later time instant such that a direction of the at least one virtual source object (12a-c) relative to the listener (17) is altered by less than 10° (α2), or
    wherein modifying modifies the meta information of the at least one virtual source object (12a-c) at a time interval of at least 10 seconds, or
    wherein modifying produces an image (12'a) of the at least one virtual source object (12a), wherein the image at least partly comprises the meta information of the at least one virtual source object (12a); and time-varyingly modifies the meta information such that the at least one virtual source object (12a) and the image (12'a) comprise mutually different meta information, and the image (12'a) is positioned at a distance (41) of at most 10 meters to the at least one virtual source object (12a), or
    wherein transferring adds to the loudspeaker signals (x'(k)) an attenuation or a delay such that a correlation of the loudspeaker signals (x'(k)) is reduced.
  8. A computer program comprising a program code for performing the method in accordance with claim 7 when the program runs on a computer.
EP14758142.5A 2013-09-11 2014-09-01 Device and method for the decorrelation of loudspeaker signals Not-in-force EP3044972B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102013218176.0A DE102013218176A1 (en) 2013-09-11 2013-09-11 DEVICE AND METHOD FOR DECORRELATING SPEAKER SIGNALS
PCT/EP2014/068503 WO2015036271A2 (en) 2013-09-11 2014-09-01 Device and method for the decorrelation of loudspeaker signals

Publications (2)

Publication Number Publication Date
EP3044972A2 EP3044972A2 (en) 2016-07-20
EP3044972B1 true EP3044972B1 (en) 2017-10-18

Family

ID=51453756

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14758142.5A Not-in-force EP3044972B1 (en) 2013-09-11 2014-09-01 Device and method for the decorrelation of loudspeaker signals

Country Status (5)

Country Link
US (1) US9807534B2 (en)
EP (1) EP3044972B1 (en)
JP (1) JP6404354B2 (en)
DE (1) DE102013218176A1 (en)
WO (1) WO2015036271A2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015008000A1 (en) * 2015-06-24 2016-12-29 Saalakustik.De Gmbh Method for reproducing sound in reflection environments, in particular in listening rooms
EP3346728A4 (en) 2015-09-03 2019-04-24 Sony Corporation Sound processing device and method, and program
JP6546698B2 (en) 2015-09-25 2019-07-17 フラウンホーファー−ゲゼルシャフト ツル フェルデルング デル アンゲヴァンテン フォルシュング エー ファウFraunhofer−Gesellschaft zur Foerderung der angewandten Forschung e.V. Rendering system
EP3389285B1 (en) * 2015-12-10 2021-05-05 Sony Corporation Speech processing device, method, and program
EP3209036A1 (en) * 2016-02-19 2017-08-23 Thomson Licensing Method, computer readable storage medium, and apparatus for determining a target sound scene at a target position from two or more source sound scenes
US10262665B2 (en) * 2016-08-30 2019-04-16 Gaudio Lab, Inc. Method and apparatus for processing audio signals using ambisonic signals
SG11202007408WA (en) 2018-04-09 2020-09-29 Dolby Int Ab Methods, apparatus and systems for three degrees of freedom (3dof+) extension of mpeg-h 3d audio
US11741093B1 (en) 2021-07-21 2023-08-29 T-Mobile Usa, Inc. Intermediate communication layer to translate a request between a user of a database and the database
US11924711B1 (en) 2021-08-20 2024-03-05 T-Mobile Usa, Inc. Self-mapping listeners for location tracking in wireless personal area networks

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10355146A1 (en) 2003-11-26 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a bass channel
ATE436151T1 (en) * 2006-05-10 2009-07-15 Harman Becker Automotive Sys COMPENSATION OF MULTI-CHANNEL ECHOS THROUGH DECORRELATION
JP2008118559A (en) * 2006-11-07 2008-05-22 Advanced Telecommunication Research Institute International Three-dimensional sound field reproducing apparatus
DE102007059597A1 (en) * 2007-09-19 2009-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus and method for detecting a component signal with high accuracy
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
EP2422344A1 (en) * 2009-04-21 2012-02-29 Koninklijke Philips Electronics N.V. Audio signal synthesizing
ES2524428T3 (en) * 2009-06-24 2014-12-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal decoder, procedure for decoding an audio signal and computer program using cascading stages of audio object processing
EP2466864B1 (en) * 2010-12-14 2019-02-27 Deutsche Telekom AG Transparent decorrelation of the loudspeaker signals of multi-channel echo compensators
EP2469741A1 (en) * 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
EP2727380B1 (en) * 2011-07-01 2020-03-11 Dolby Laboratories Licensing Corporation Upmixing object based audio

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
None *

Also Published As

Publication number Publication date
DE102013218176A1 (en) 2015-03-12
WO2015036271A3 (en) 2015-05-07
JP2016534667A (en) 2016-11-04
JP6404354B2 (en) 2018-10-10
WO2015036271A2 (en) 2015-03-19
US9807534B2 (en) 2017-10-31
EP3044972A2 (en) 2016-07-20
US20160198280A1 (en) 2016-07-07

Similar Documents

Publication Publication Date Title
EP3044972B1 (en) Device and method for the decorrelation of loudspeaker signals
DE60304358T2 (en) METHOD FOR PROCESSING AUDIO FILES AND DETECTION DEVICE FOR THE APPLICATION THEREOF
US6668061B1 (en) Crosstalk canceler
DE69726262T2 (en) SOUND RECORDING AND PLAYBACK SYSTEMS
EP2550813B1 (en) Multichannel sound reproduction method and device
EP1977626B1 (en) Method for recording and reproducing a sound source with time-variable directional characteristics
DE10328335B4 (en) Wavefield syntactic device and method for driving an array of loud speakers
EP1576847B1 (en) Audio playback system and method for playing back an audio signal
Wierstorf Perceptual assessment of sound field synthesis
EP3895451B1 (en) Method and apparatus for processing a stereo signal
AT394650B (en) ELECTROACOUSTIC ARRANGEMENT FOR PLAYING STEREOPHONER BINAURAL AUDIO SIGNALS VIA HEADPHONES
DE102007048973A1 (en) Apparatus and method for generating a multi-channel signal with voice signal processing
DE102012017296B4 (en) Generation of multichannel sound from stereo audio signals
EP1671516A1 (en) Device and method for producing a low-frequency channel
DE102005001395B4 (en) Method and apparatus for transforming the early sound field
DE102006010212A1 (en) Apparatus and method for the simulation of WFS systems and compensation of sound-influencing WFS properties
DE102019107302A1 (en) Process for creating and playing back a binaural recording
DE102005003431A1 (en) Binaural signal e.g. dummy head microphone signal, reproducing arrangement for e.g. theme park, has virtual transauralization source with constant position relative to ears, and filter unit filtering signal portions for all directions
DE19911507A1 (en) Method of improving three-dimensional sound reproduction enables more effective 3D sound processing to be achieved with minimisation of high frequency components of a virtual sound source positioned behind the ear
DE112006002548T5 (en) Apparatus and method for playing two-channel virtual sound
EP2373054A1 (en) Playback into a mobile target sound area using virtual loudspeakers
Gribben et al. The frequency and loudspeaker-azimuth dependencies of vertical interchannel decorrelation on the vertical spread of an auditory image
DE102011108788B4 (en) Method for processing an audio signal, audio reproduction system and processing unit for processing audio signals
EP2503799B1 (en) Method and system for calculating synthetic head related transfer functions by means of virtual local sound field synthesis
EP2487891B1 (en) Prevention of an acoustic echo in full duplex systems

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20160411

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
RIN1 Information on inventor provided before grant (corrected)

Inventor name: SCHNEIDER, MARTIN

Inventor name: FRANCK, ANDREAS

Inventor name: KELLERMANN, WALTER

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20170407

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1226579

Country of ref document: HK

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 938900

Country of ref document: AT

Kind code of ref document: T

Effective date: 20171115

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502014005885

Country of ref document: DE

REG Reference to a national code

Ref country code: NL

Ref legal event code: MP

Effective date: 20171018

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: NL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: SE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180118

Ref country code: ES

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180118

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180119

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20180218

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502014005885

Country of ref document: DE

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1226579

Country of ref document: HK

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

Ref country code: IT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

26N No opposition filed

Effective date: 20180719

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20180930

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180930

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180930

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20180930

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20140901

Ref country code: MK

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171018

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20171018

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20200923

Year of fee payment: 7

Ref country code: FR

Payment date: 20200922

Year of fee payment: 7

Ref country code: DE

Payment date: 20200924

Year of fee payment: 7

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 938900

Country of ref document: AT

Kind code of ref document: T

Effective date: 20190901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20190901

REG Reference to a national code

Ref country code: DE

Ref legal event code: R119

Ref document number: 502014005885

Country of ref document: DE

GBPC Gb: european patent ceased through non-payment of renewal fee

Effective date: 20210901

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GB

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210901

Ref country code: FR

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20210930

Ref country code: DE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20220401